Rollerhafeezh-amikom/fire-silvanus-quantization

rollerhafeezh-amikom
Clasificación de texto

Este modelo es una implementación de clasificación de texto utilizando diversas bibliotecas como Transformers y ONNX, basado en XLM-Roberta. El modelo es compatible con AutoTrain y se puede desplegar en Inference Endpoints.

Como usar

Este modelo se puede utilizar para tareas de clasificación de texto. A continuación se muestra un ejemplo de cómo usarlo:

from transformers import AutoTokenizer, AutoModelForSequenceClassification

tokenizer = AutoTokenizer.from_pretrained('rollerhafeezh-amikom/fire-silvanus-quantization')
model = AutoModelForSequenceClassification.from_pretrained('rollerhafeezh-amikom/fire-silvanus-quantization')

inputs = tokenizer('Me gustas. Te amo.', return_tensors='pt')
outputs = model(**inputs)

Funcionalidades

Clasificación de Texto
Integración con Transformers
Soporte para ONNX
Compatible con XLM-Roberta
Compatible con AutoTrain
Despliegue en Inference Endpoints

Casos de uso

Clasificación de correos electrónicos
Análisis de sentimientos en redes sociales
Etiquetado de comentarios de clientes
Moderación de contenido