roberta-base-sst2

WillHeld
Clasificación de texto

Este modelo es una versión ajustada de roberta-base en el conjunto de datos GLUE SST2. Obtiene los siguientes resultados en el conjunto de evaluación: Pérdida: 0.1952, Precisión: 0.9323.

Como usar

from transformers import AutoModelForSequenceClassification, AutoTokenizer

# Cargar el modelo y el tokenizador
model_name = 'roberta-base-sst2'
model = AutoModelForSequenceClassification.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)

# Tokenizar texto de entrada
input_text = 'Me gustas. Te amo'
inputs = tokenizer(input_text, return_tensors='pt')

# Realizar inferencia
outputs = model(**inputs)

Funcionalidades

Transformers
PyTorch
Correo electrónico
Generado desde Trainer
Resultados de evaluación
Compatible con AutoTrain
Compatible con Endpoints
licencia MIT
Región: US

Casos de uso

Clasificación de texto
Análisis de sentimientos
Filtrado de contenido
Moderación de comentarios