Clasificación de emociones
imrazaa
Clasificación de texto
Este modelo es una versión ajustada de roberta-base en el conjunto de datos go_emotions. Logra los siguientes resultados en el conjunto de evaluación: Pérdida: 1.6119 F1: 0.3852
Como usar
Procedimiento de entrenamiento
Los siguientes hiperparámetros se usaron durante el entrenamiento:
- tasa de aprendizaje: 2e-05
- tamaño de lote de entrenamiento: 16
- tamaño de lote de evaluación: 16
- semilla: 42
- optimizador: Adam con betas=(0.9,0.999) y epsilon=1e-08
- tipo de programador de tasa de aprendizaje: lineal
- número de épocas: 3
Resultados de entrenamiento
-
Sin registro
-
Época: 1.0
-
Paso: 313
-
Pérdida de validación: 1.8826
-
F1: 0.1762
-
Pérdida: 2.1614
-
Época: 2.0
-
Paso: 626
-
Pérdida de validación: 1.6738
-
F1: 0.3442
-
Pérdida: 2.1614
-
Época: 3.0
-
Paso: 939
-
Pérdida de validación: 1.6119
-
F1: 0.3852
Versiones de Framework
- Transformers 4.28.0
- Pytorch 2.0.1+cu118
- Datasets 2.14.5
- Tokenizers 0.13.3
Funcionalidades
- Clasificación de texto
- Basado en Transformers
- Usa el conjunto de datos go_emotions
- Compatible con PyTorch
- Soporte para TensorBoard
- Generado desde el entrenador
- Compatible con AutoTrain
- Compatible con Endpoints
Casos de uso
- Clasificación de emociones en texto
- Análisis de sentimientos
- Aplicaciones en servicio al cliente para detectar emociones
- Monitoreo de redes sociales para analizar respuestas emocionales