finetuned-roberta-depression

ShreyaR
Clasificación de texto

Este modelo es una versión afinada de roberta-base en un conjunto de datos desconocido. Logra los siguientes resultados en el conjunto de evaluación: Pérdida: 0.1385 y Precisión: 0.9745.

Como usar

El siguiente modelo se puede utilizar para clasificar textos en distintas categorías relacionadas con la depresión. Con el uso de Transformadores y tokenizadores de AutoModel, se puede aplicar en varias aplicaciones de procesamiento de lenguaje natural.

Hiperparámetros de entrenamiento

learning_rate: 5e-05
train_batch_size: 8
eval_batch_size: 8
seed: 42
optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
lr_scheduler_type: linear
num_epochs: 3.0

Resultados del entrenamiento

Período | Paso | Pérdida de validación | Precisión
0.0238  | 1.0  | 625                   | 0.1385
0.0333  | 2.0  | 1250                  | 0.1385
0.0263  | 3.0  | 1875                  | 0.1385

Versión de los marcos

Transformers 4.17.0
Pytorch 1.10.0+cu111
Datasets 2.0.0
Tokenizers 0.11.6

Funcionalidades

Clasificación de texto
Compatible con Transformers
Compatible con PyTorch
Compatible con TensorBoard
Generado desde Trainer
Compatible con AutoTrain
Compatible con Endpoints
Licencia MIT
Región: US

Casos de uso

Detección de síntomas de depresión a través de la clasificación de textos.
Análisis de sentimientos en publicaciones en redes sociales para identificar posibles señales de depresión.
Asistencia en aplicaciones clínicas y de salud mental mediante la evaluación de respuestas textuales.