distilbert-base-uncased-finetuned-tweets-sentiment
austinmw
Clasificación de texto
Este modelo es una versión ajustada de distilbert-base-uncased en el conjunto de datos tweet_eval. Alcanza los siguientes resultados en el conjunto de evaluación: Pérdida: 0.8192, Precisión: 0.7295, F1: 0.7303.
Como usar
El siguiente conjunto de hiperparámetros se utilizó durante el entrenamiento:
learning_rate: 2e-05
train_batch_size: 64
eval_batch_size: 64
seed: 42
optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
lr_scheduler_type: linear
num_epochs: 10
Funcionalidades
- Clasificación de texto
- Transformers
- PyTorch
- TensorBoard
Casos de uso
- Clasificación de sentimientos en tweets