textattack/roberta-base-imdb

textattack
Clasificación de texto

Este modelo roberta-base fue ajustado para la clasificación de secuencias utilizando TextAttack y el conjunto de datos imdb cargado con la biblioteca nlp. El modelo fue ajustado durante 5 épocas con un tamaño de lote de 64, una tasa de aprendizaje de 3e-05 y una longitud máxima de secuencia de 128. Dado que esta era una tarea de clasificación, el modelo fue entrenado con una función de pérdida de entropía cruzada. La mejor puntuación que el modelo logró en esta tarea fue 0.91436, medida por la precisión del conjunto de evaluación, encontrada después de 2 épocas. Para más información, consulta TextAttack en Github.

Como usar

Para usar este modelo, puedes seguir las instrucciones en la tarjeta del modelo en Hugging Face. Aquí hay un ejemplo de cómo se puede implementar el modelo:

from transformers import AutoModelForSequenceClassification, AutoTokenizer

model = AutoModelForSequenceClassification.from_pretrained('textattack/roberta-base-imdb')
tokenizer = AutoTokenizer.from_pretrained('textattack/roberta-base-imdb')

inputs = tokenizer('I like you. I love you', return_tensors='pt')
outputs = model(**inputs)
print(outputs)

Este código carga el modelo y el tokenizador, luego procesa la frase 'I like you. I love you' y obtiene las salidas del modelo.

Funcionalidades

Clasificación de texto
Compatibilidad con transformers
Compatibilidad con PyTorch
Compatibilidad con JAX
Compatibilidad con AutoTrain
Compatibilidad con Endpoints de Inferencia

Casos de uso

Clasificación de reseñas de películas en IMDb
Análisis de sentimientos
Clasificación de textos en general