microsoft/deberta-base-mnli

microsoft
Clasificación de texto

DeBERTa mejora los modelos BERT y RoBERTa usando atención desentrelazada y un decodificador de máscara mejorado. Supera a BERT y RoBERTa en la mayoría de las tareas de NLU con 80GB de datos de entrenamiento. Este modelo es el modelo base de DeBERTa afinado con la tarea MNLI.

Como usar

Para usar este modelo, puedes consultarlo en el repositorio oficial para obtener más detalles y actualizaciones.

Funcionalidades

Atención desentrelazada
Decodificador de máscara mejorado
Afinación en tareas de NLU
Supera a BERT y RoBERTa en múltiples tareas

Casos de uso

Clasificación de textos
Inferencia en tareas de NLU
Mejora del rendimiento en tareas de comprensión del lenguaje natural