textattack/bert-base-uncased-imdb

textattack
Clasificación de texto

Este modelo bert-base-uncased fue afinado para la clasificación de secuencias utilizando TextAttack y el conjunto de datos imdb cargado con la biblioteca nlp. El modelo fue afinado durante 5 épocas con un tamaño de lote de 16, una tasa de aprendizaje de 2e-05 y una longitud máxima de secuencia de 128. Dado que esta era una tarea de clasificación, el modelo se entrenó con una función de pérdida de entropía cruzada. La mejor puntuación que logró el modelo en esta tarea fue 0.89088, medida por la precisión del conjunto de evaluación, encontrada después de 4 épocas.

Como usar

Para más información, consulte TextAttack en Github.

Funcionalidades

Clasificación de texto
Transformers
PyTorch
JAX
Inference Endpoints

Casos de uso

🛡️ anonymous8/Rapid-Textual-Adversarial-Defense
🛡️ PFEemp2024/DCWIR-Demo
🌍 patel18/sentiment_analysis
🛡️ PFEemp2024/DCWIR-Offcial-Demo
📊 Esmaeilkiani/DashboardZaliAidehkhoda