textattack/roberta-base-CoLA
textattack
Clasificación de texto
TextAttack Model Card y el conjunto de datos glue cargado usando la biblioteca nlp. El modelo fue ajustado durante 5 épocas con un tamaño de lote de 32, una tasa de aprendizaje de 2e-05 y una longitud máxima de secuencia de 128. Dado que esta era una tarea de clasificación, el modelo se entrenó con una función de pérdida de entropía cruzada. La mejor puntuación que el modelo logró en esta tarea fue 0.850431447746884, según la precisión del conjunto de evaluación, encontrada después de 1 época.
Como usar
from transformers import AutoModelForSequenceClassification, AutoTokenizer
# Cargar el modelo y el tokenizador
model = AutoModelForSequenceClassification.from_pretrained('textattack/roberta-base-CoLA')
tokenizer = AutoTokenizer.from_pretrained('textattack/roberta-base-CoLA')
# Texto a clasificar
text = 'Me gustas. Te amo.'
# Tokenizar el texto
inputs = tokenizer(text, return_tensors='pt')
# Realizar la clasificación
outputs = model(**inputs)
Funcionalidades
- Clasificación de textos
- Compatible con Transformers
- Compatible con PyTorch
- Compatible con JAX
- Basado en roberta
- Compatible con AutoTrain
- Compatible con Endpoints
- Región: US
Casos de uso
- Clasificación de sentimientos
- Detección de spam
- Clasificación de comentarios
- Análisis de textos