gpt2-medium-ajustado-para-sentimiento-sst2
michelecafagna26
Clasificación de texto
El modelo GPT-2-medium de OpenAI ajustado en el conjunto de datos SST-2 para la tarea de análisis de sentimiento. Este modelo ha sido presentado en el trabajo 'Language Models are Unsupervised Multitask Learners' de Alec Radford, Jeffrey Wu, Rewon Child, David Luan, Dario Amodei e Ilya Sutskever.
Como usar
from transformers import GPT2Tokenizer, GPT2ForSequenceClassification
tokenizer = GPT2Tokenizer.from_pretrained('michelecafagna26/gpt2-medium-finetuned-sst2-sentiment')
model = GPT2ForSequenceClassification.from_pretrained('michelecafagna26/gpt2-medium-finetuned-sst2-sentiment')
inputs = tokenizer('I love it', return_tensors='pt')
model(**inputs).logits.argmax(axis=1)
# 1: Positivo, 0: Negativo
# Salida: tensor([1])
Funcionalidades
- Clasificación de texto
- Entrenado utilizando bibliotecas Transformers, PyTorch y Safetensors
- Compatible con AutoTrain
- Compatible con puntos finales de inferencia
Casos de uso
- Análisis de sentimiento
- Clasificación de opiniones de clientes
- Monitorización de redes sociales
- Análisis de comentarios en plataformas de streaming