madlag/bert-base-uncased-squadv1-x2.32-f86.6-d15-hybrid-v1

madlag
Pregunta y respuesta

Modelo BERT-base uncased afinado en SQuAD v1. Este modelo fue creado utilizando la librería de Python nn_pruning: las capas lineales contienen el 15.0% de los pesos originales. El modelo contiene 34.0% de los pesos originales en general (las incrustaciones representan una parte significativa del modelo y no se podan con este método). Con una simple reducción de tamaño de las matrices lineales, se ejecutó 2.32 veces más rápido que bert-base-uncased en la evaluación. Esto es posible porque el método de poda condujo a matrices estructuradas: para visualizarlas, pasa el cursor sobre la trama para ver las partes no nulas/nulas de cada matriz.

Como usar

pip install nn_pruning

from transformers import pipeline
from nn_pruning.inference_model_patcher import optimize_model

qa_pipeline = pipeline(
"question-answering",
model="madlag/bert-base-uncased-squadv1-x2.32-f86.6-d15-hybrid-v1",
tokenizer="madlag/bert-base-uncased-squadv1-x2.32-f86.6-d15-hybrid-v1")

print("bert-base-uncased parameters: 165.0M")
print(f"Parameters count (includes only head pruning, not feed forward pruning)={int(qa_pipeline.model.num_parameters() / 1E6)}M")
qa_pipeline.model = optimize_model(qa_pipeline.model, "dense")

print(f"Parameters count after complete optimization={int(qa_pipeline.model.num_parameters() / 1E6)}M")
predictions = qa_pipeline({
'context': "Frédéric François Chopin, born Fryderyk Franciszek Chopin (1 March 1810 – 17 October 1849), was a Polish composer and virtuoso pianist of the Romantic era who wrote primarily for solo piano.",
'question': "Who is Frederic Chopin?",
})
print("Predictions", predictions)

Funcionalidades

Poda de pesos utilizando nn_pruning
Velocidad de ejecución aumentada 2.32x
Pérdida de precisión mínima (F1 de 86.64 comparado con 88.5 del bert-base-uncased)
Reducción significativa del tamaño del modelo
Eliminación de cabezas de atención (63 de 144 cabezas eliminadas)

Casos de uso

Sistema de respuesta a preguntas basadas en contenido textual
Optimización de modelos para entornos con recursos limitados
Implementación en sistemas donde la velocidad de inferencia es crucial