VictorSanh / roberta-base-finetuned-yelp-polarity
VictorSanh
Clasificación de texto
Este es un punto de control RoBERTa-base afinado para la clasificación de sentimientos binarios del conjunto de datos Yelp Polarity. Obtiene una precisión del 98.08 % en el conjunto de prueba. Utiliza las siguientes bibliotecas y tecnologías: Transformers, PyTorch, JAX y Safetensors.
Como usar
Usamos los siguientes hiperparámetros para entrenar el modelo en una GPU:
num_train_epochs = 2.0
learning_rate = 1e-05
weight_decay = 0.0
adam_epsilon = 1e-08
max_grad_norm = 1.0
per_device_train_batch_size = 32
gradient_accumulation_steps = 1
warmup_steps = 3500
seed = 42
Para utilizar este modelo, ejecute el siguiente código:
from transformers import AutoTokenizer, AutoModelForSequenceClassification
tokenizer = AutoTokenizer.from_pretrained('VictorSanh/roberta-base-finetuned-yelp-polarity')
model = AutoModelForSequenceClassification.from_pretrained('VictorSanh/roberta-base-finetuned-yelp-polarity')
text = 'I like you. I love you'
inputs = tokenizer(text, return_tensors='pt')
outputs = model(**inputs)
Funcionalidades
- Clasificación de texto
- Compatible con AutoTrain
- Compatible con Inference Endpoints
- Región: EE.UU.
Casos de uso
- Clasificación de sentimientos en reseñas de Yelp
- Aplicaciones de monitoreo de opiniones del cliente
- Análisis de sentimientos en redes sociales