textattack/bert-base-uncased-rotten-tomatoes
textattack
Clasificación de texto
Este modelo 'bert-base-uncased' fue ajustado para la clasificación de secuencias usando TextAttack y el conjunto de datos rotten_tomatoes cargado con la biblioteca 'nlp'. El modelo fue ajustado durante 10 épocas con un tamaño de lote de 16, una tasa de aprendizaje de 2e-05 y una longitud máxima de secuencia de 128. Dado que esta era una tarea de clasificación, el modelo fue entrenado con una función de pérdida de entropía cruzada. La mejor puntuación que el modelo logró en esta tarea fue 0.875234521575985, medida por la precisión del conjunto de evaluación, encontrada tras 4 épocas.
Como usar
Para más información, visita TextAttack en Github.
Funcionalidades
- Ajuste fino para la clasificación de secuencias
- Entrenado con el conjunto de datos rotten_tomatoes
- Tamaño de lote de 16
- Tasa de aprendizaje de 2e-05
- Longitud máxima de secuencia de 128
- Función de pérdida de entropía cruzada
Casos de uso
- Clasificación de texto
- Defensa textual rápida contra adversarios
- Demostraciones de clasificación de contenido
- Conversión de ASR a QA