Clasificación de emociones

imrazaa
Clasificación de texto

Este modelo es una versión ajustada de roberta-base en el conjunto de datos go_emotions. Logra los siguientes resultados en el conjunto de evaluación: Pérdida: 1.6119 F1: 0.3852

Como usar

Procedimiento de entrenamiento

Los siguientes hiperparámetros se usaron durante el entrenamiento:

  • tasa de aprendizaje: 2e-05
  • tamaño de lote de entrenamiento: 16
  • tamaño de lote de evaluación: 16
  • semilla: 42
  • optimizador: Adam con betas=(0.9,0.999) y epsilon=1e-08
  • tipo de programador de tasa de aprendizaje: lineal
  • número de épocas: 3

Resultados de entrenamiento

  • Sin registro

  • Época: 1.0

  • Paso: 313

  • Pérdida de validación: 1.8826

  • F1: 0.1762

  • Pérdida: 2.1614

  • Época: 2.0

  • Paso: 626

  • Pérdida de validación: 1.6738

  • F1: 0.3442

  • Pérdida: 2.1614

  • Época: 3.0

  • Paso: 939

  • Pérdida de validación: 1.6119

  • F1: 0.3852

Versiones de Framework

  • Transformers 4.28.0
  • Pytorch 2.0.1+cu118
  • Datasets 2.14.5
  • Tokenizers 0.13.3

Funcionalidades

Clasificación de texto
Basado en Transformers
Usa el conjunto de datos go_emotions
Compatible con PyTorch
Soporte para TensorBoard
Generado desde el entrenador
Compatible con AutoTrain
Compatible con Endpoints

Casos de uso

Clasificación de emociones en texto
Análisis de sentimientos
Aplicaciones en servicio al cliente para detectar emociones
Monitoreo de redes sociales para analizar respuestas emocionales