Modelo de análisis de sentimientos en reseñas de Amazon

sohan-ai
Clasificación de texto

Este repositorio contiene un modelo Distilled BERT (Bidirectional Encoder Representations from Transformers) afinado para el análisis de sentimientos en reseñas de Amazon. El modelo base utilizado es el modelo distilbert-base-uncased, que es una versión más pequeña y rápida del BERT original, preentrenado en un gran corpus de datos textuales. El modelo está basado en la biblioteca transformers de Hugging Face y ha sido afinado utilizando un enfoque de clasificación binaria para predecir si una reseña de Amazon es positiva o negativa en función del texto de la reseña.

Como usar

from transformers import DistilBertTokenizer, DistilBertForSequenceClassification

# Cargar el modelo afinado desde Hugging Face
model_name = "sohan-ai/sentiment-analysis-model-amazon-reviews"
tokenizer = DistilBertTokenizer.from_pretrained("distilbert-base-uncased")
model = DistilBertForSequenceClassification.from_pretrained(model_name)

# Tokenizar texto de entrada
text = "This is a positive review."
inputs = tokenizer(text, return_tensors="pt")

# Realizar una predicción
outputs = model(**inputs)
predicted_label = "positive" if outputs.logits.argmax().item() == 1 else "negative"

print(f"Predicted sentiment: {predicted_label}")

Funcionalidades

Modelo Distilled BERT afinado
Análisis de sentimientos en reseñas de Amazon
Entrenado en el modelo distilbert-base-uncased
Preprocesamiento para eliminar información personal identificable (PII)
Clasificación binaria (positivo o negativo)
Desplegado en la plataforma de modelos Hugging Face

Casos de uso

Análisis de feedback de clientes
Investigación de mercado
Monitoreo de sentimientos