Modelo de análisis de sentimientos en reseñas de Amazon
sohan-ai
Clasificación de texto
Este repositorio contiene un modelo Distilled BERT (Bidirectional Encoder Representations from Transformers) afinado para el análisis de sentimientos en reseñas de Amazon. El modelo base utilizado es el modelo distilbert-base-uncased, que es una versión más pequeña y rápida del BERT original, preentrenado en un gran corpus de datos textuales. El modelo está basado en la biblioteca transformers de Hugging Face y ha sido afinado utilizando un enfoque de clasificación binaria para predecir si una reseña de Amazon es positiva o negativa en función del texto de la reseña.
Como usar
from transformers import DistilBertTokenizer, DistilBertForSequenceClassification
# Cargar el modelo afinado desde Hugging Face
model_name = "sohan-ai/sentiment-analysis-model-amazon-reviews"
tokenizer = DistilBertTokenizer.from_pretrained("distilbert-base-uncased")
model = DistilBertForSequenceClassification.from_pretrained(model_name)
# Tokenizar texto de entrada
text = "This is a positive review."
inputs = tokenizer(text, return_tensors="pt")
# Realizar una predicción
outputs = model(**inputs)
predicted_label = "positive" if outputs.logits.argmax().item() == 1 else "negative"
print(f"Predicted sentiment: {predicted_label}")
Funcionalidades
- Modelo Distilled BERT afinado
- Análisis de sentimientos en reseñas de Amazon
- Entrenado en el modelo distilbert-base-uncased
- Preprocesamiento para eliminar información personal identificable (PII)
- Clasificación binaria (positivo o negativo)
- Desplegado en la plataforma de modelos Hugging Face
Casos de uso
- Análisis de feedback de clientes
- Investigación de mercado
- Monitoreo de sentimientos