textattack/bert-base-uncased-ag-news

textattack
Clasificación de texto

Este modelo bert-base-uncased se ajustó para la clasificación de secuencias utilizando TextAttack y el conjunto de datos ag_news cargado con la biblioteca nlp. El modelo se entrenó durante 5 épocas con un tamaño de lote de 16, una tasa de aprendizaje de 3e-05 y una longitud máxima de secuencia de 128. Como se trataba de una tarea de clasificación, el modelo se entrenó con una función de pérdida de entropía cruzada. El mejor resultado que el modelo logró en esta tarea fue 0.9514473684210526, medido por la precisión del conjunto de evaluación, encontrado después de 3 épocas.

Como usar

Para más información, consulte TextAttack en Github.

Funcionalidades

Clasificación de secuencias
Ajuste fino con TextAttack
Entrenado con el conjunto de datos ag_news
5 épocas de entrenamiento
Tamaño de lote de 16
Tasa de aprendizaje de 3e-05
Longitud máxima de secuencia de 128
Función de pérdida de entropía cruzada

Casos de uso

Clasificación de noticias en el conjunto de datos ag_news
Defensa textual rápida adversaria
Demostraciones oficiales de DCWIR