microsoft/deberta-base-mnli
microsoft
Clasificación de texto
DeBERTa mejora los modelos BERT y RoBERTa usando atención desentrelazada y un decodificador de máscara mejorado. Supera a BERT y RoBERTa en la mayoría de las tareas de NLU con 80GB de datos de entrenamiento. Este modelo es el modelo base de DeBERTa afinado con la tarea MNLI.
Como usar
Para usar este modelo, puedes consultarlo en el repositorio oficial para obtener más detalles y actualizaciones.
Funcionalidades
- Atención desentrelazada
- Decodificador de máscara mejorado
- Afinación en tareas de NLU
- Supera a BERT y RoBERTa en múltiples tareas
Casos de uso
- Clasificación de textos
- Inferencia en tareas de NLU
- Mejora del rendimiento en tareas de comprensión del lenguaje natural