gpt2-imdb-sentiment-classifier

mnoukhov
Clasificación de texto

Este modelo es una versión afinada de GPT-2 en el conjunto de datos IMDb. Logra los siguientes resultados en el conjunto de evaluación: Pérdida: 0.1703, Precisión: 0.9394. Este modelo es comparable a distilbert-imdb y se entrenó con exactamente el mismo script, logrando una pérdida ligeramente menor (0.1703 frente a 0.1903) y una precisión ligeramente mayor (0.9394 frente a 0.928).

Como usar

Para usar este modelo, puede seguir el procedimiento de entrenamiento descrito a continuación. Los siguientes hiperparámetros se usaron durante el entrenamiento:

  • tasa de aprendizaje: 5e-05
  • tamaño de lote de entrenamiento: 16
  • tamaño de lote de evaluación: 16
  • semilla: 42
  • optimizador: Adam con betas=(0.9,0.999) y epsilon=1e-08
  • tipo de programador de tasa de aprendizaje: lineal
  • número de épocas: 1

Resultados del entrenamiento:

  • Pérdida de entrenamiento: 0.1967
  • Época: 1.0
  • Paso: 1563
  • Pérdida de validación: 0.1703
  • Precisión: 0.9394

Ejemplo de uso:

from transformers import AutoTokenizer, AutoModelForSequenceClassification

tokenizer = AutoTokenizer.from_pretrained('mnoukhov/gpt2-imdb-sentiment-classifier')
model = AutoModelForSequenceClassification.from_pretrained('mnoukhov/gpt2-imdb-sentiment-classifier')

inputs = tokenizer('I like you. I love you', return_tensors='pt')
outputs = model(**inputs)
apred = outputs.logits.argmax(dim=-1).item()
print('Label:', apred)

Funcionalidades

Clasificación de texto
Transformers
PyTorch
TensorBoard
Generado desde Trainer
Compatible con AutoTrain
Inferencia de generación de texto
Compatible con Endpoints
Licencia MIT
Región: US

Casos de uso

Clasificación de reseñas de películas en IMDb
Análisis de sentimientos de textos de usuarios
Evaluaciones de productos
Monitoreo de redes sociales