textattack/roberta-base-imdb
Este modelo roberta-base fue ajustado para la clasificación de secuencias utilizando TextAttack y el conjunto de datos imdb cargado con la biblioteca nlp. El modelo fue ajustado durante 5 épocas con un tamaño de lote de 64, una tasa de aprendizaje de 3e-05 y una longitud máxima de secuencia de 128. Dado que esta era una tarea de clasificación, el modelo fue entrenado con una función de pérdida de entropía cruzada. La mejor puntuación que el modelo logró en esta tarea fue 0.91436, medida por la precisión del conjunto de evaluación, encontrada después de 2 épocas. Para más información, consulta TextAttack en Github.
Como usar
Para usar este modelo, puedes seguir las instrucciones en la tarjeta del modelo en Hugging Face. Aquí hay un ejemplo de cómo se puede implementar el modelo:
from transformers import AutoModelForSequenceClassification, AutoTokenizer
model = AutoModelForSequenceClassification.from_pretrained('textattack/roberta-base-imdb')
tokenizer = AutoTokenizer.from_pretrained('textattack/roberta-base-imdb')
inputs = tokenizer('I like you. I love you', return_tensors='pt')
outputs = model(**inputs)
print(outputs)
Este código carga el modelo y el tokenizador, luego procesa la frase 'I like you. I love you' y obtiene las salidas del modelo.
Funcionalidades
- Clasificación de texto
- Compatibilidad con transformers
- Compatibilidad con PyTorch
- Compatibilidad con JAX
- Compatibilidad con AutoTrain
- Compatibilidad con Endpoints de Inferencia
Casos de uso
- Clasificación de reseñas de películas en IMDb
- Análisis de sentimientos
- Clasificación de textos en general