Rollerhafeezh-amikom/fire-silvanus-quantization
rollerhafeezh-amikom
Clasificación de texto
Este modelo es una implementación de clasificación de texto utilizando diversas bibliotecas como Transformers y ONNX, basado en XLM-Roberta. El modelo es compatible con AutoTrain y se puede desplegar en Inference Endpoints.
Como usar
Este modelo se puede utilizar para tareas de clasificación de texto. A continuación se muestra un ejemplo de cómo usarlo:
from transformers import AutoTokenizer, AutoModelForSequenceClassification
tokenizer = AutoTokenizer.from_pretrained('rollerhafeezh-amikom/fire-silvanus-quantization')
model = AutoModelForSequenceClassification.from_pretrained('rollerhafeezh-amikom/fire-silvanus-quantization')
inputs = tokenizer('Me gustas. Te amo.', return_tensors='pt')
outputs = model(**inputs)
Funcionalidades
- Clasificación de Texto
- Integración con Transformers
- Soporte para ONNX
- Compatible con XLM-Roberta
- Compatible con AutoTrain
- Despliegue en Inference Endpoints
Casos de uso
- Clasificación de correos electrónicos
- Análisis de sentimientos en redes sociales
- Etiquetado de comentarios de clientes
- Moderación de contenido