DistilBERT-finetuned-on-emotion
Rahmat82
Clasificación de texto
Este modelo es una versión afinada de distilbert-base-uncased en el conjunto de datos de emociones. Alcanzó los siguientes resultados en el conjunto de evaluación: Pérdida: 0.2180, Precisión: 0.9235, F1: 0.9235. DistilBERT es afinado en el conjunto de datos de emociones. Haga clic en el siguiente enlace para ver cómo funciona el modelo: https://huggingface.co/spaces/Rahmat82/emotions_classifier
Como usar
El modelo no cuenta con suficiente actividad para ser desplegado en la API de Inferencia (sin servidor) aún. Aumente su visibilidad social y vuelva a intentarlo más tarde, o despliegue los Puntos de Inferencia en su lugar.
Funcionalidades
- Clasificación de texto
- Transformadores
- TensorBoard
- Safetensors
Casos de uso
- Clasificación de emociones en textos