gpt2-imdb-sentiment-classifier
mnoukhov
Clasificación de texto
Este modelo es una versión afinada de GPT-2 en el conjunto de datos IMDb. Logra los siguientes resultados en el conjunto de evaluación: Pérdida: 0.1703, Precisión: 0.9394. Este modelo es comparable a distilbert-imdb y se entrenó con exactamente el mismo script, logrando una pérdida ligeramente menor (0.1703 frente a 0.1903) y una precisión ligeramente mayor (0.9394 frente a 0.928).
Como usar
Para usar este modelo, puede seguir el procedimiento de entrenamiento descrito a continuación. Los siguientes hiperparámetros se usaron durante el entrenamiento:
- tasa de aprendizaje: 5e-05
- tamaño de lote de entrenamiento: 16
- tamaño de lote de evaluación: 16
- semilla: 42
- optimizador: Adam con betas=(0.9,0.999) y epsilon=1e-08
- tipo de programador de tasa de aprendizaje: lineal
- número de épocas: 1
Resultados del entrenamiento:
- Pérdida de entrenamiento: 0.1967
- Época: 1.0
- Paso: 1563
- Pérdida de validación: 0.1703
- Precisión: 0.9394
Ejemplo de uso:
from transformers import AutoTokenizer, AutoModelForSequenceClassification
tokenizer = AutoTokenizer.from_pretrained('mnoukhov/gpt2-imdb-sentiment-classifier')
model = AutoModelForSequenceClassification.from_pretrained('mnoukhov/gpt2-imdb-sentiment-classifier')
inputs = tokenizer('I like you. I love you', return_tensors='pt')
outputs = model(**inputs)
apred = outputs.logits.argmax(dim=-1).item()
print('Label:', apred)
Funcionalidades
- Clasificación de texto
- Transformers
- PyTorch
- TensorBoard
- Generado desde Trainer
- Compatible con AutoTrain
- Inferencia de generación de texto
- Compatible con Endpoints
- Licencia MIT
- Región: US
Casos de uso
- Clasificación de reseñas de películas en IMDb
- Análisis de sentimientos de textos de usuarios
- Evaluaciones de productos
- Monitoreo de redes sociales