bert-base-uncased-imdb
Este modelo es una versión ajustada de bert-base-uncased en el conjunto de datos de imdb. Logra los siguientes resultados en el conjunto de evaluación: Pérdida: 0.4942, Precisión: 0.9126.
Como usar
Procedimiento de Entrenamiento
Los siguientes hiperparámetros se utilizaron durante el entrenamiento:
- learning_rate: 5e-05
- train_batch_size: 8
- eval_batch_size: 16
- seed: 42
- optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
- lr_scheduler_type: lineal
- lr_scheduler_warmup_steps: 1546
- training_steps: 15468
Resultados del Entrenamiento
| Training Loss | Epoch | Step | Validation Loss | Accuracy |
|---------------|-------|------|-----------------|----------|
| 0.3952 | 0.65 | 2000 | 0.4012 | 0.86 |
| 0.2954 | 1.29 | 4000 | 0.4535 | 0.892 |
| 0.2595 | 1.94 | 6000 | 0.4320 | 0.892 |
| 0.1516 | 2.59 | 8000 | 0.5309 | 0.896 |
| 0.1167 | 3.23 | 10000| 0.4070 | 0.928 |
| 0.0624 | 3.88 | 12000| 0.5055 | 0.908 |
| 0.0329 | 4.52 | 14000| 0.4342 | 0.92 |
from transformers import pipeline
classifier = pipeline("sentiment-analysis", model="fabriceyhc/bert-base-uncased-imdb")
Funcionalidades
- Clasificación de texto
- Transformers
- PyTorch
Casos de uso
- Clasificación de sentimientos en reseñas de películas
- Análisis de sentimientos en texto