Intel/dynamic-minilmv2-L6-H384-squad1.1-int8-static
Intel
Pregunta y respuesta
Este modelo es el resultado de un nuevo enfoque llamado QuaLA-MiniLM, que combina la destilación de conocimiento, la técnica del transformador adaptable en longitud (LAT) y la cuantificación de bajo bit. Se expande el enfoque Dynamic-TinyBERT. Este enfoque entrena un modelo único que puede adaptarse a cualquier escenario de inferencia con un presupuesto computacional dado, logrando una relación superior entre precisión y eficiencia en el conjunto de datos SQuAD1.1. Los autores compararon su enfoque con otros métodos eficientes y encontraron que logra hasta una aceleración x8.8 con menos de un 1% de pérdida de precisión. También proporcionan su código públicamente en GitHub.
Como usar
Ejemplos de código próximamente disponibles!
import...
Funcionalidades
- Destilación de conocimiento
- Transformador adaptable en longitud (LAT)
- Cuantificación de bajo bit
- Modelo único adaptable a diferentes escenarios de inferencia
- Aceleración x8.8 con menos de un 1% de pérdida de precisión
- Disponible públicamente en GitHub
Casos de uso
- Responder preguntas en el conjunto de datos SQuAD1.1
- Optimización de modelos para escenarios con restricciones computacionales
- Aplicaciones de lenguaje natural que requieren alta eficiencia