bert-base-uncased-imdb

fabriceyhc
Clasificación de texto

Este modelo es una versión ajustada de bert-base-uncased en el conjunto de datos de imdb. Logra los siguientes resultados en el conjunto de evaluación: Pérdida: 0.4942, Precisión: 0.9126.

Como usar

Procedimiento de Entrenamiento

Los siguientes hiperparámetros se utilizaron durante el entrenamiento:

  • learning_rate: 5e-05
  • train_batch_size: 8
  • eval_batch_size: 16
  • seed: 42
  • optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
  • lr_scheduler_type: lineal
  • lr_scheduler_warmup_steps: 1546
  • training_steps: 15468

Resultados del Entrenamiento

| Training Loss | Epoch | Step | Validation Loss | Accuracy | |---------------|-------|------|-----------------|----------| | 0.3952 | 0.65 | 2000 | 0.4012 | 0.86 | | 0.2954 | 1.29 | 4000 | 0.4535 | 0.892 | | 0.2595 | 1.94 | 6000 | 0.4320 | 0.892 | | 0.1516 | 2.59 | 8000 | 0.5309 | 0.896 | | 0.1167 | 3.23 | 10000| 0.4070 | 0.928 | | 0.0624 | 3.88 | 12000| 0.5055 | 0.908 | | 0.0329 | 4.52 | 14000| 0.4342 | 0.92 |

from transformers import pipeline
classifier = pipeline("sentiment-analysis", model="fabriceyhc/bert-base-uncased-imdb")

Funcionalidades

Clasificación de texto
Transformers
PyTorch

Casos de uso

Clasificación de sentimientos en reseñas de películas
Análisis de sentimientos en texto