textattack/bert-base-uncased-RTE

textattack
Clasificación de texto

Este modelo bert-base-uncased fue ajustado para la clasificación de secuencias utilizando TextAttack y el conjunto de datos glue cargado utilizando la biblioteca nlp. El modelo fue ajustado durante 5 épocas con un tamaño de lote de 8, una tasa de aprendizaje de 2e-05 y una longitud máxima de secuencia de 128. Dado que se trataba de una tarea de clasificación, el modelo fue entrenado con una función de pérdida de entropía cruzada. La mejor puntuación que el modelo logró en esta tarea fue 0.7256317689530686, medida por la precisión del conjunto de evaluación, encontrada después de 2 épocas.

Como usar

Para más información, consulta TextAttack en Github.

Funcionalidades

Clasificación de texto
Transformers
PyTorch
JAX
Puntos de inferencia

Casos de uso

Defensa textual adversarial rápida
Demo DCWIR
Demo oficial DCWIR