gpt2-medium-ajustado-para-sentimiento-sst2

michelecafagna26
Clasificación de texto

El modelo GPT-2-medium de OpenAI ajustado en el conjunto de datos SST-2 para la tarea de análisis de sentimiento. Este modelo ha sido presentado en el trabajo 'Language Models are Unsupervised Multitask Learners' de Alec Radford, Jeffrey Wu, Rewon Child, David Luan, Dario Amodei e Ilya Sutskever.

Como usar

from transformers import GPT2Tokenizer, GPT2ForSequenceClassification

tokenizer = GPT2Tokenizer.from_pretrained('michelecafagna26/gpt2-medium-finetuned-sst2-sentiment')
model = GPT2ForSequenceClassification.from_pretrained('michelecafagna26/gpt2-medium-finetuned-sst2-sentiment')

inputs = tokenizer('I love it', return_tensors='pt')

model(**inputs).logits.argmax(axis=1)

# 1: Positivo, 0: Negativo
# Salida: tensor([1])

Funcionalidades

Clasificación de texto
Entrenado utilizando bibliotecas Transformers, PyTorch y Safetensors
Compatible con AutoTrain
Compatible con puntos finales de inferencia

Casos de uso

Análisis de sentimiento
Clasificación de opiniones de clientes
Monitorización de redes sociales
Análisis de comentarios en plataformas de streaming