roberta-base-suicide-prediction-phr

vibhorag101
Clasificación de texto

Este modelo es una versión ajustada de roberta-base en este conjunto de datos obtenidos de Reddit. Está diseñado para detectar tendencias suicidas en un texto determinado. El modelo ha sido entrenado usando una GPU RTXA5000 y ha alcanzado los siguientes resultados en el conjunto de evaluación/validación: Pérdida: 0.1543 Precisión: 0.9652972367116438 Recall: 0.966571403827834 Precisión: 0.9638169257340242 F1: 0.9651921995935487 El modelo logra el siguiente resultado en la partición de validación de este conjunto de datos actualizado: Pérdida: 0.08761 Precisión: 0.97065 Recall: 0.96652 Precisión: 0.97732 F1: 0.97189

Como usar

Procedimiento de entrenamiento

El modelo fue entrenado en una GPU RTXA5000.

Hiperparámetros del entrenamiento

Los siguientes hiperparámetros se utilizaron durante el entrenamiento:

  • learning_rate: 2e-05
  • train_batch_size: 16
  • eval_batch_size: 16
  • seed: 42
  • optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
  • lr_scheduler_type: lineal
  • num_epochs: 3

Resultados del entrenamiento

tabla | Pérdida de entrenamiento | Época | Paso | Pérdida de validación | Precisión | Recall | Precisión | F1 0.2023 | 0.09 | 1000 | 0.1868 | {'accuracy': 0.9415010561710566} | {'recall': 0.9389451805663809} | {'precision': 0.943274752044545} | {'f1': 0.9411049867627274} 0.1792 | 0.17 | 2000 | 0.1465 | {'accuracy': 0.9528387291460103} | {'recall': 0.9615484541439335} | {'precision': 0.9446949714966392} | {'f1': 0.9530472103004292}

Versión de los frameworks

  • Transformers 4.31.0
  • Pytorch 2.1.0+cu121
  • Datasets 2.14.5
  • Tokenizers 0.13.3

Funcionalidades

Clasificación de texto
Transformers
PyTorch
Generado desde Trainer
Resultados de evaluación
Compatible con AutoTrain
Compatible con Endpoints
Licencia MIT
Región: US

Casos de uso

Detección de tendencias suicidas en textos
Análisis de contenido en redes sociales en busca de signos de suicidio