roberta-base-suicide-prediction-phr
Este modelo es una versión ajustada de roberta-base en este conjunto de datos obtenidos de Reddit. Está diseñado para detectar tendencias suicidas en un texto determinado. El modelo ha sido entrenado usando una GPU RTXA5000 y ha alcanzado los siguientes resultados en el conjunto de evaluación/validación: Pérdida: 0.1543 Precisión: 0.9652972367116438 Recall: 0.966571403827834 Precisión: 0.9638169257340242 F1: 0.9651921995935487 El modelo logra el siguiente resultado en la partición de validación de este conjunto de datos actualizado: Pérdida: 0.08761 Precisión: 0.97065 Recall: 0.96652 Precisión: 0.97732 F1: 0.97189
Como usar
Procedimiento de entrenamiento
El modelo fue entrenado en una GPU RTXA5000.
Hiperparámetros del entrenamiento
Los siguientes hiperparámetros se utilizaron durante el entrenamiento:
- learning_rate: 2e-05
- train_batch_size: 16
- eval_batch_size: 16
- seed: 42
- optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
- lr_scheduler_type: lineal
- num_epochs: 3
Resultados del entrenamiento
tabla | Pérdida de entrenamiento | Época | Paso | Pérdida de validación | Precisión | Recall | Precisión | F1
0.2023 | 0.09 | 1000 | 0.1868 | {'accuracy': 0.9415010561710566} | {'recall': 0.9389451805663809} | {'precision': 0.943274752044545} | {'f1': 0.9411049867627274}
0.1792 | 0.17 | 2000 | 0.1465 | {'accuracy': 0.9528387291460103} | {'recall': 0.9615484541439335} | {'precision': 0.9446949714966392} | {'f1': 0.9530472103004292}
Versión de los frameworks
- Transformers 4.31.0
- Pytorch 2.1.0+cu121
- Datasets 2.14.5
- Tokenizers 0.13.3
Funcionalidades
- Clasificación de texto
- Transformers
- PyTorch
- Generado desde Trainer
- Resultados de evaluación
- Compatible con AutoTrain
- Compatible con Endpoints
- Licencia MIT
- Región: US
Casos de uso
- Detección de tendencias suicidas en textos
- Análisis de contenido en redes sociales en busca de signos de suicidio