madlag/bert-base-uncased-squad1.1-block-sparse-0.20-v1
madlag
Pregunta y respuesta
El modelo BERT-base uncased afinado en SQuAD v1. Este modelo es sparse por bloques: las capas lineales contienen el 20.2% de los pesos originales. El modelo contiene el 38.1% de los pesos originales en total. El entrenamiento utiliza una versión modificada del método de Poda de Movimiento de Victor Sanh. Esto significa que con el tiempo de ejecución sparse por bloques, funcionó 1.39x más rápido que las redes densas en la evaluación, a costa de algún impacto en la precisión. Este modelo fue afinado desde el punto de control BERT base uncased de HuggingFace en SQuAD1.1, y destilado del modelo equivalente csarron/bert-base-uncased-squad-v1. Este modelo es insensible a las mayúsculas: no hace diferencia entre 'english' y 'English'.
Como usar
from transformers import pipeline
qa_pipeline = pipeline(
"question-answering",
model="madlag/bert-base-uncased-squad1.1-block-sparse-0.20-v1",
tokenizer="madlag/bert-base-uncased-squad1.1-block-sparse-0.20-v1")
predictions = qa_pipeline({
'context': "Frédéric François Chopin, born Fryderyk Franciszek Chopin (1 March 1810 – 17 October 1849), was a Polish composer and virtuoso pianist of the Romantic era who wrote primarily for solo piano.",
'question': "Who is Frederic Chopin?",
})
print(predictions)
Funcionalidades
- Modelo BERT-base uncased afinado en SQuAD v1
- Sparse por bloques: las capas lineales contienen el 20.2% de los pesos originales
- Contiene el 38.1% de los pesos originales en total
- Utiliza el método de Poda de Movimiento de Victor Sanh
- Funciona 1.39x más rápido que redes densas en la evaluación
- Insensible a mayúsculas
Casos de uso
- Responder preguntas sobre contexto dado
- Asistencia en tareas de comprensión lectora
- Automatización de servicios de atención al cliente
- Análisis de grandes cantidades de texto para extraer información relevante