hipnologo/gpt2-imdb-finetune

hipnologo
Clasificación de texto

Este es un modelo GPT-2 ajustado con el conjunto de datos de reseñas de películas de IMDb para el análisis de sentimientos. Clasifica un texto de reseña de película en dos clases: 'positivo' o 'negativo'.

Como usar

Aquí hay una manera simple de usar este modelo:

from transformers import GPT2Tokenizer, GPT2ForSequenceClassification

tokenizer = GPT2Tokenizer.from_pretrained('hipnologo/gpt2-imdb-finetune')
model = GPT2ForSequenceClassification.from_pretrained('hipnologo/gpt2-imdb-finetune')

text = 'Your review text here!'

# codificando el texto de entrada
input_ids = tokenizer.encode(text, return_tensors='pt')

# Mover el tensor input_ids al mismo dispositivo que el modelo
input_ids = input_ids.to(model.device)

# obteniendo los logits
logits = model(input_ids).logits

# obteniendo la clase predicha
predicted_class = logits.argmax(-1).item()

print(f'El sentimiento predicho por el modelo es: {'Positivo' si predicted_class == 1 else 'Negativo'}')

Procedimiento de Entrenamiento

El modelo se entrenó usando la clase 'Trainer' de la biblioteca transformers, con una tasa de aprendizaje de 2e-5, tamaño de lote de 1 y 3 épocas de entrenamiento.

Evaluación

El modelo ajustado se evaluó en el conjunto de datos de prueba. Aquí están los resultados:

Pérdida de Evaluación: 0.23127 Precisión de Evaluación: 0.94064 Puntuación F1 de Evaluación: 0.94104 Precisión de Evaluación: 0.93466 Recuerdo de Evaluación: 0.94752

Funcionalidades

Clasificación de texto
Uso de Transformers
Compatibilidad con PyTorch
Uso de Safetensors
Análisis de sentimientos
Modelo fine-tuned
Compatibilidad con AutoTrain
Inferencia de generación de texto
Compatibilidad con Endpoints de Inferencia

Casos de uso

Análisis binario de sentimientos de reseñas de películas en inglés
Determinación de si una reseña es positiva o negativa
No debe usarse para idiomas distintos al inglés o para textos con sentimientos ambiguos