bert-large-uncased-squadv1.1-sparse-90-unstructured
Intel
Pregunta y respuesta
Este modelo es el resultado de afinar un BERT-Large preentrenado 90% escaso utilizando poda OFA combinado con destilación de conocimiento. Este modelo arroja los siguientes resultados en el conjunto de desarrollo de SQuADv1.1: exact_match: 83.56669820245979, f1: 90.20829352733487. Para más detalles, consulte nuestro documento 'Prune Once for All: Sparse Pre-Trained Language Models' y nuestra implementación de código abierto disponible aquí.
Como usar
Este modelo no tiene suficiente actividad para ser desplegado en la API de inferencia (sin servidor) todavía. Aumente su visibilidad social y vuelva a comprobarlo más tarde, o despliegue a Endpoints de inferencia (dedicado) en su lugar.
Funcionalidades
- 90% escaso BERT-Large (sin mayúsculas) afinado en SQuADv1.1
- Utiliza poda OFA y destilación de conocimiento
- Proporciona resultados avanzados en conjunto de desarrollo SQuADv1.1
Casos de uso
- Respuesta a preguntas
- Procesamiento de lenguaje natural
- Aplicaciones impulsadas por BERT