distilbert-base-uncased-finetuned-emotion
iamsubrata
Clasificación de texto
Este modelo es una versión ajustada de distilbert-base-uncased en el conjunto de datos de emociones. Logra los siguientes resultados en el conjunto de evaluación: Pérdida: 0.1706, Precisión: 0.928, Puntaje F1: 0.9285.
Como usar
Para utilizar este modelo, puede seguir los siguientes hiperparámetros de entrenamiento:
learning_rate: 2e-05
train_batch_size: 64
eval_batch_size: 64
seed: 42
optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
lr_scheduler_type: linear
num_epochs: 3
Funcionalidades
- Clasificación de texto
- Transformadores
- Tablero de Tensor
- Safetensors
- Generado a partir de Trainer
- Puntos finales de inferencia
Casos de uso
- Clasificación de emociones en textos
- Análisis de sentimientos
- Detección de emociones en redes sociales
- Atención al cliente para detectar el estado emocional