VictorSanh / roberta-base-finetuned-yelp-polarity

VictorSanh
Clasificación de texto

Este es un punto de control RoBERTa-base afinado para la clasificación de sentimientos binarios del conjunto de datos Yelp Polarity. Obtiene una precisión del 98.08 % en el conjunto de prueba. Utiliza las siguientes bibliotecas y tecnologías: Transformers, PyTorch, JAX y Safetensors.

Como usar

Usamos los siguientes hiperparámetros para entrenar el modelo en una GPU:

num_train_epochs = 2.0
learning_rate = 1e-05
weight_decay = 0.0
adam_epsilon = 1e-08
max_grad_norm = 1.0
per_device_train_batch_size = 32
gradient_accumulation_steps = 1
warmup_steps = 3500
seed = 42

Para utilizar este modelo, ejecute el siguiente código:

from transformers import AutoTokenizer, AutoModelForSequenceClassification

tokenizer = AutoTokenizer.from_pretrained('VictorSanh/roberta-base-finetuned-yelp-polarity')
model = AutoModelForSequenceClassification.from_pretrained('VictorSanh/roberta-base-finetuned-yelp-polarity')

text = 'I like you. I love you'
inputs = tokenizer(text, return_tensors='pt')
outputs = model(**inputs)

Funcionalidades

Clasificación de texto
Compatible con AutoTrain
Compatible con Inference Endpoints
Región: EE.UU.

Casos de uso

Clasificación de sentimientos en reseñas de Yelp
Aplicaciones de monitoreo de opiniones del cliente
Análisis de sentimientos en redes sociales