hipnologo/gpt2-imdb-finetune
hipnologo
Clasificación de texto
Este es un modelo GPT-2 ajustado con el conjunto de datos de reseñas de películas de IMDb para el análisis de sentimientos. Clasifica un texto de reseña de película en dos clases: 'positivo' o 'negativo'.
Como usar
Aquí hay una manera simple de usar este modelo:
from transformers import GPT2Tokenizer, GPT2ForSequenceClassification
tokenizer = GPT2Tokenizer.from_pretrained('hipnologo/gpt2-imdb-finetune')
model = GPT2ForSequenceClassification.from_pretrained('hipnologo/gpt2-imdb-finetune')
text = 'Your review text here!'
# codificando el texto de entrada
input_ids = tokenizer.encode(text, return_tensors='pt')
# Mover el tensor input_ids al mismo dispositivo que el modelo
input_ids = input_ids.to(model.device)
# obteniendo los logits
logits = model(input_ids).logits
# obteniendo la clase predicha
predicted_class = logits.argmax(-1).item()
print(f'El sentimiento predicho por el modelo es: {'Positivo' si predicted_class == 1 else 'Negativo'}')
Procedimiento de Entrenamiento
El modelo se entrenó usando la clase 'Trainer' de la biblioteca transformers, con una tasa de aprendizaje de 2e-5, tamaño de lote de 1 y 3 épocas de entrenamiento.
Evaluación
El modelo ajustado se evaluó en el conjunto de datos de prueba. Aquí están los resultados:
Pérdida de Evaluación: 0.23127
Precisión de Evaluación: 0.94064
Puntuación F1 de Evaluación: 0.94104
Precisión de Evaluación: 0.93466
Recuerdo de Evaluación: 0.94752
Funcionalidades
- Clasificación de texto
- Uso de Transformers
- Compatibilidad con PyTorch
- Uso de Safetensors
- Análisis de sentimientos
- Modelo fine-tuned
- Compatibilidad con AutoTrain
- Inferencia de generación de texto
- Compatibilidad con Endpoints de Inferencia
Casos de uso
- Análisis binario de sentimientos de reseñas de películas en inglés
- Determinación de si una reseña es positiva o negativa
- No debe usarse para idiomas distintos al inglés o para textos con sentimientos ambiguos