Intel/dynamic-minilmv2-L6-H384-squad1.1-int8-static

Intel
Pregunta y respuesta

Este modelo es el resultado de un nuevo enfoque llamado QuaLA-MiniLM, que combina la destilación de conocimiento, la técnica del transformador adaptable en longitud (LAT) y la cuantificación de bajo bit. Se expande el enfoque Dynamic-TinyBERT. Este enfoque entrena un modelo único que puede adaptarse a cualquier escenario de inferencia con un presupuesto computacional dado, logrando una relación superior entre precisión y eficiencia en el conjunto de datos SQuAD1.1. Los autores compararon su enfoque con otros métodos eficientes y encontraron que logra hasta una aceleración x8.8 con menos de un 1% de pérdida de precisión. También proporcionan su código públicamente en GitHub.

Como usar

Ejemplos de código próximamente disponibles!

import...

Funcionalidades

Destilación de conocimiento
Transformador adaptable en longitud (LAT)
Cuantificación de bajo bit
Modelo único adaptable a diferentes escenarios de inferencia
Aceleración x8.8 con menos de un 1% de pérdida de precisión
Disponible públicamente en GitHub

Casos de uso

Responder preguntas en el conjunto de datos SQuAD1.1
Optimización de modelos para escenarios con restricciones computacionales
Aplicaciones de lenguaje natural que requieren alta eficiencia