madlag/bert-base-uncased-squad1.1-block-sparse-0.20-v1

madlag
Pregunta y respuesta

El modelo BERT-base uncased afinado en SQuAD v1. Este modelo es sparse por bloques: las capas lineales contienen el 20.2% de los pesos originales. El modelo contiene el 38.1% de los pesos originales en total. El entrenamiento utiliza una versión modificada del método de Poda de Movimiento de Victor Sanh. Esto significa que con el tiempo de ejecución sparse por bloques, funcionó 1.39x más rápido que las redes densas en la evaluación, a costa de algún impacto en la precisión. Este modelo fue afinado desde el punto de control BERT base uncased de HuggingFace en SQuAD1.1, y destilado del modelo equivalente csarron/bert-base-uncased-squad-v1. Este modelo es insensible a las mayúsculas: no hace diferencia entre 'english' y 'English'.

Como usar

from transformers import pipeline

qa_pipeline = pipeline(
  "question-answering",
  model="madlag/bert-base-uncased-squad1.1-block-sparse-0.20-v1",
  tokenizer="madlag/bert-base-uncased-squad1.1-block-sparse-0.20-v1")

predictions = qa_pipeline({
  'context': "Frédéric François Chopin, born Fryderyk Franciszek Chopin (1 March 1810 – 17 October 1849), was a Polish composer and virtuoso pianist of the Romantic era who wrote primarily for solo piano.",
  'question': "Who is Frederic Chopin?",
})

print(predictions)

Funcionalidades

Modelo BERT-base uncased afinado en SQuAD v1
Sparse por bloques: las capas lineales contienen el 20.2% de los pesos originales
Contiene el 38.1% de los pesos originales en total
Utiliza el método de Poda de Movimiento de Victor Sanh
Funciona 1.39x más rápido que redes densas en la evaluación
Insensible a mayúsculas

Casos de uso

Responder preguntas sobre contexto dado
Asistencia en tareas de comprensión lectora
Automatización de servicios de atención al cliente
Análisis de grandes cantidades de texto para extraer información relevante