bert-large-uncased-squadv1.1-sparse-90-unstructured

Intel
Pregunta y respuesta

Este modelo es el resultado de afinar un BERT-Large preentrenado 90% escaso utilizando poda OFA combinado con destilación de conocimiento. Este modelo arroja los siguientes resultados en el conjunto de desarrollo de SQuADv1.1: exact_match: 83.56669820245979, f1: 90.20829352733487. Para más detalles, consulte nuestro documento 'Prune Once for All: Sparse Pre-Trained Language Models' y nuestra implementación de código abierto disponible aquí.

Como usar

Este modelo no tiene suficiente actividad para ser desplegado en la API de inferencia (sin servidor) todavía. Aumente su visibilidad social y vuelva a comprobarlo más tarde, o despliegue a Endpoints de inferencia (dedicado) en su lugar.

Funcionalidades

90% escaso BERT-Large (sin mayúsculas) afinado en SQuADv1.1
Utiliza poda OFA y destilación de conocimiento
Proporciona resultados avanzados en conjunto de desarrollo SQuADv1.1

Casos de uso

Respuesta a preguntas
Procesamiento de lenguaje natural
Aplicaciones impulsadas por BERT