finetuned-roberta-depression
ShreyaR
Clasificación de texto
Este modelo es una versión afinada de roberta-base en un conjunto de datos desconocido. Logra los siguientes resultados en el conjunto de evaluación: Pérdida: 0.1385 y Precisión: 0.9745.
Como usar
El siguiente modelo se puede utilizar para clasificar textos en distintas categorías relacionadas con la depresión. Con el uso de Transformadores y tokenizadores de AutoModel, se puede aplicar en varias aplicaciones de procesamiento de lenguaje natural.
Hiperparámetros de entrenamiento
learning_rate: 5e-05
train_batch_size: 8
eval_batch_size: 8
seed: 42
optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
lr_scheduler_type: linear
num_epochs: 3.0
Resultados del entrenamiento
Período | Paso | Pérdida de validación | Precisión
0.0238 | 1.0 | 625 | 0.1385
0.0333 | 2.0 | 1250 | 0.1385
0.0263 | 3.0 | 1875 | 0.1385
Versión de los marcos
Transformers 4.17.0
Pytorch 1.10.0+cu111
Datasets 2.0.0
Tokenizers 0.11.6
Funcionalidades
- Clasificación de texto
- Compatible con Transformers
- Compatible con PyTorch
- Compatible con TensorBoard
- Generado desde Trainer
- Compatible con AutoTrain
- Compatible con Endpoints
- Licencia MIT
- Región: US
Casos de uso
- Detección de síntomas de depresión a través de la clasificación de textos.
- Análisis de sentimientos en publicaciones en redes sociales para identificar posibles señales de depresión.
- Asistencia en aplicaciones clínicas y de salud mental mediante la evaluación de respuestas textuales.