textattack/roberta-base-CoLA

textattack
Clasificación de texto

TextAttack Model Card y el conjunto de datos glue cargado usando la biblioteca nlp. El modelo fue ajustado durante 5 épocas con un tamaño de lote de 32, una tasa de aprendizaje de 2e-05 y una longitud máxima de secuencia de 128. Dado que esta era una tarea de clasificación, el modelo se entrenó con una función de pérdida de entropía cruzada. La mejor puntuación que el modelo logró en esta tarea fue 0.850431447746884, según la precisión del conjunto de evaluación, encontrada después de 1 época.

Como usar

from transformers import AutoModelForSequenceClassification, AutoTokenizer

# Cargar el modelo y el tokenizador
model = AutoModelForSequenceClassification.from_pretrained('textattack/roberta-base-CoLA')
tokenizer = AutoTokenizer.from_pretrained('textattack/roberta-base-CoLA')

# Texto a clasificar
text = 'Me gustas. Te amo.'

# Tokenizar el texto
inputs = tokenizer(text, return_tensors='pt')

# Realizar la clasificación
outputs = model(**inputs)

Funcionalidades

Clasificación de textos
Compatible con Transformers
Compatible con PyTorch
Compatible con JAX
Basado en roberta
Compatible con AutoTrain
Compatible con Endpoints
Región: US

Casos de uso

Clasificación de sentimientos
Detección de spam
Clasificación de comentarios
Análisis de textos