textattack/bert-base-uncased-rotten-tomatoes

textattack
Clasificación de texto

Este modelo 'bert-base-uncased' fue ajustado para la clasificación de secuencias usando TextAttack y el conjunto de datos rotten_tomatoes cargado con la biblioteca 'nlp'. El modelo fue ajustado durante 10 épocas con un tamaño de lote de 16, una tasa de aprendizaje de 2e-05 y una longitud máxima de secuencia de 128. Dado que esta era una tarea de clasificación, el modelo fue entrenado con una función de pérdida de entropía cruzada. La mejor puntuación que el modelo logró en esta tarea fue 0.875234521575985, medida por la precisión del conjunto de evaluación, encontrada tras 4 épocas.

Como usar

Para más información, visita TextAttack en Github.

Funcionalidades

Ajuste fino para la clasificación de secuencias
Entrenado con el conjunto de datos rotten_tomatoes
Tamaño de lote de 16
Tasa de aprendizaje de 2e-05
Longitud máxima de secuencia de 128
Función de pérdida de entropía cruzada

Casos de uso

Clasificación de texto
Defensa textual rápida contra adversarios
Demostraciones de clasificación de contenido
Conversión de ASR a QA