textattack/bert-base-uncased-ag-news
textattack
Clasificación de texto
Este modelo bert-base-uncased se ajustó para la clasificación de secuencias utilizando TextAttack y el conjunto de datos ag_news cargado con la biblioteca nlp. El modelo se entrenó durante 5 épocas con un tamaño de lote de 16, una tasa de aprendizaje de 3e-05 y una longitud máxima de secuencia de 128. Como se trataba de una tarea de clasificación, el modelo se entrenó con una función de pérdida de entropía cruzada. El mejor resultado que el modelo logró en esta tarea fue 0.9514473684210526, medido por la precisión del conjunto de evaluación, encontrado después de 3 épocas.
Como usar
Para más información, consulte TextAttack en Github.
Funcionalidades
- Clasificación de secuencias
- Ajuste fino con TextAttack
- Entrenado con el conjunto de datos ag_news
- 5 épocas de entrenamiento
- Tamaño de lote de 16
- Tasa de aprendizaje de 3e-05
- Longitud máxima de secuencia de 128
- Función de pérdida de entropía cruzada
Casos de uso
- Clasificación de noticias en el conjunto de datos ag_news
- Defensa textual rápida adversaria
- Demostraciones oficiales de DCWIR