textattack/bert-base-uncased-RTE
textattack
Clasificación de texto
Este modelo bert-base-uncased fue ajustado para la clasificación de secuencias utilizando TextAttack y el conjunto de datos glue cargado utilizando la biblioteca nlp. El modelo fue ajustado durante 5 épocas con un tamaño de lote de 8, una tasa de aprendizaje de 2e-05 y una longitud máxima de secuencia de 128. Dado que se trataba de una tarea de clasificación, el modelo fue entrenado con una función de pérdida de entropía cruzada. La mejor puntuación que el modelo logró en esta tarea fue 0.7256317689530686, medida por la precisión del conjunto de evaluación, encontrada después de 2 épocas.
Como usar
Para más información, consulta TextAttack en Github.
Funcionalidades
- Clasificación de texto
- Transformers
- PyTorch
- JAX
- Puntos de inferencia
Casos de uso
- Defensa textual adversarial rápida
- Demo DCWIR
- Demo oficial DCWIR