madlag/bert-base-uncased-squad1.1-block-sparse-0.07-v1
BERT-base sin distinción de mayúsculas ni minúsculas ajustado en SQuAD v1. Este modelo es de baja densidad: las capas lineales contienen el 7.5% de los pesos originales. En general, el modelo contiene el 28.2% de los pesos originales. El entrenamiento utiliza una versión modificada del método Movement Pruning de Victor Sanh. Esto significa que con el tiempo de ejecución de baja densidad, funcionó 1.92 veces más rápido que las redes densas en la evaluación, a costa de algún impacto en la precisión. Este modelo fue afinado desde el punto de control BERT base sin distinción de mayúsculas ni minúsculas de HuggingFace en SQuAD1.1, y destilado del modelo equivalente csarron/bert-base-uncased-squad-v1. Este modelo es insensible a mayúsculas: no diferencia entre inglés e Inglés.
Como usar
from transformers import pipeline
qa_pipeline = pipeline(
"question-answering",
model="madlag/bert-base-uncased-squad1.1-block-sparse-0.07-v1",
tokenizer="madlag/bert-base-uncased-squad1.1-block-sparse-0.07-v1")
predictions = qa_pipeline({
'context': "Frédéric François Chopin, nacido Fryderyk Franciszek Chopin (1 de marzo de 1810 – 17 de octubre de 1849), fue un compositor polaco y pianista virtuoso de la era romántica que escribió principalmente para piano solo.",
'question': "¿Quién es Frederic Chopin?",
})
print(predictions)
Funcionalidades
- Modelado de baja densidad
- Tiempo de ejecución 1.92 veces más rápido que redes densas
- Insensible a mayúsculas
- Utiliza el método de poda de movimiento de Victor Sanh
- Contiene el 28.2% de los pesos originales
Casos de uso
- Respuestas a preguntas basadas en contextos dados
- Mejora del tiempo de inferencia en tareas de preguntas y respuestas
- Reducción de pesos del modelo para optimización