textattack/albert-base-v2-CoLA
textattack
Clasificación de texto
El modelo TextAttack Albert Base v2 fue afinado utilizando la biblioteca nlp y el conjunto de datos glue. Fue entrenado durante 5 épocas con un tamaño de lote de 32, una tasa de aprendizaje de 3e-05 y una longitud máxima de secuencia de 128. Dado que esta era una tarea de clasificación, el modelo fue entrenado con una función de pérdida de entropía cruzada. La mejor puntuación que el modelo logró en esta tarea fue 0.8245445829338447, medida por la precisión en el conjunto de evaluación, encontrada después de 2 épocas.
Como usar
Para más información, visita TextAttack en Github.
Funcionalidades
- Afinado utilizando la biblioteca nlp y el conjunto de datos glue
- Entrenado durante 5 épocas
- Tamaño de lote de 32
- Tasa de aprendizaje de 3e-05
- Longitud máxima de secuencia de 128
- Función de pérdida de entropía cruzada
- Mejor puntuación de 0.8245445829338447 en precisión del conjunto de evaluación
Casos de uso
- Tareas de clasificación de texto
- Defensa textual adversaria rápida
- Demostraciones en DCWIR