DistilBERT-finetuned-on-emotion

Rahmat82
Clasificación de texto

Este modelo es una versión afinada de distilbert-base-uncased en el conjunto de datos de emociones. Alcanzó los siguientes resultados en el conjunto de evaluación: Pérdida: 0.2180, Precisión: 0.9235, F1: 0.9235. DistilBERT es afinado en el conjunto de datos de emociones. Haga clic en el siguiente enlace para ver cómo funciona el modelo: https://huggingface.co/spaces/Rahmat82/emotions_classifier

Como usar

El modelo no cuenta con suficiente actividad para ser desplegado en la API de Inferencia (sin servidor) aún. Aumente su visibilidad social y vuelva a intentarlo más tarde, o despliegue los Puntos de Inferencia en su lugar.

Funcionalidades

Clasificación de texto
Transformadores
TensorBoard
Safetensors

Casos de uso

Clasificación de emociones en textos