textattack/roberta-base-ag-news

textattack
Clasificación de texto

Este modelo roberta-base fue ajustado para la clasificación de secuencias utilizando TextAttack y el conjunto de datos ag_news cargado usando la biblioteca nlp. El modelo fue ajustado durante 5 épocas con un tamaño de lote de 16, una tasa de aprendizaje de 5e-05 y una longitud máxima de secuencia de 128. Dado que esta era una tarea de clasificación, el modelo fue entrenado con una función de pérdida de entropía cruzada. El mejor puntaje que el modelo logró en esta tarea fue 0.9469736842105263, medido por la precisión del conjunto de evaluación, encontrado después de 4 épocas. Para más información, consulta TextAttack en Github.

Como usar

from transformers import AutoTokenizer, AutoModelForSequenceClassification

tokenizer = AutoTokenizer.from_pretrained('textattack/roberta-base-ag-news')
model = AutoModelForSequenceClassification.from_pretrained('textattack/roberta-base-ag-news')

text = 'I like you. I love you'
inputs = tokenizer(text, return_tensors='pt')
outputs = model(**inputs)```

Funcionalidades

Clasificación de texto
Transformers
PyTorch
JAX
Compatible con AutoTrain
Compatibilidad con endpoints
Región: EE.UU.

Casos de uso

Clasificación de noticias
Análisis de sentimientos
Filtrado de contenido
Identificación de temas