textattack/bert-base-uncased-imdb
textattack
Clasificación de texto
Este modelo bert-base-uncased fue afinado para la clasificación de secuencias utilizando TextAttack y el conjunto de datos imdb cargado con la biblioteca nlp. El modelo fue afinado durante 5 épocas con un tamaño de lote de 16, una tasa de aprendizaje de 2e-05 y una longitud máxima de secuencia de 128. Dado que esta era una tarea de clasificación, el modelo se entrenó con una función de pérdida de entropía cruzada. La mejor puntuación que logró el modelo en esta tarea fue 0.89088, medida por la precisión del conjunto de evaluación, encontrada después de 4 épocas.
Como usar
Para más información, consulte TextAttack en Github.
Funcionalidades
- Clasificación de texto
- Transformers
- PyTorch
- JAX
- Inference Endpoints
Casos de uso
- 🛡️ anonymous8/Rapid-Textual-Adversarial-Defense
- 🛡️ PFEemp2024/DCWIR-Demo
- 🌍 patel18/sentiment_analysis
- 🛡️ PFEemp2024/DCWIR-Offcial-Demo
- 📊 Esmaeilkiani/DashboardZaliAidehkhoda