SamLowe/roberta-base-go_emotions
Modelo entrenado con roberta-base en el conjunto de datos go_emotions para la clasificación de etiquetas múltiples. Una versión de este modelo en formato ONNX (incluida una versión cuantizada INT8 de ONNX) está disponible en https://huggingface.co/SamLowe/roberta-base-go_emotions-onnx. Estos modelos son más rápidos para la inferencia, especialmente para tamaños de lotes más pequeños, reducen enormemente el tamaño de las dependencias necesarias para la inferencia, hacen que la inferencia del modelo sea más multiplataforma y, en el caso de la versión cuantizada, reducen el tamaño del archivo/modelo de descarga en un 75% mientras retienen casi toda la precisión, si solo necesita inferencia.
Como usar
Hay múltiples formas de usar este modelo en Huggingface Transformers. Posiblemente la más simple es usar un pipeline:
from transformers import pipeline
classifier = pipeline(task="text-classification", model="SamLowe/roberta-base-go_emotions", top_k=None)
sentences = ["I am not having a great day"]
model_outputs = classifier(sentences)
print(model_outputs[0])
# produce una lista de dictados para cada una de las etiquetas
Evaluación del modelo: https://github.com/samlowe/go_emotions-dataset/blob/main/eval-roberta-base-go_emotions.ipynb
Funcionalidades
- Clasificación de etiquetas múltiples
- 28 salidas de flotadores de 'probabilidad' para cualquier texto de entrada dado
- Versión disponible en formato ONNX
- Reducción de tamaño de dependencias
- Modelo más rápido para inferencia
Casos de uso
- Análisis de sentimientos en tiempo real
- Reconocimiento de emociones del discurso en tiempo real
- Análisis de noticias del mundo
- Procesamiento de video para entrevistas
- Terapia de salud mental multimodal