roberta-base-sst2
WillHeld
Clasificación de texto
Este modelo es una versión ajustada de roberta-base en el conjunto de datos GLUE SST2. Obtiene los siguientes resultados en el conjunto de evaluación: Pérdida: 0.1952, Precisión: 0.9323.
Como usar
from transformers import AutoModelForSequenceClassification, AutoTokenizer
# Cargar el modelo y el tokenizador
model_name = 'roberta-base-sst2'
model = AutoModelForSequenceClassification.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)
# Tokenizar texto de entrada
input_text = 'Me gustas. Te amo'
inputs = tokenizer(input_text, return_tensors='pt')
# Realizar inferencia
outputs = model(**inputs)
Funcionalidades
- Transformers
- PyTorch
- Correo electrónico
- Generado desde Trainer
- Resultados de evaluación
- Compatible con AutoTrain
- Compatible con Endpoints
- licencia MIT
- Región: US
Casos de uso
- Clasificación de texto
- Análisis de sentimientos
- Filtrado de contenido
- Moderación de comentarios