csarron/mobilebert-uncased-squad-v2

csarron
Pregunta y respuesta

MobileBERT es una versión reducida de BERT_LARGE, equipada con estructuras de cuello de botella y un equilibrio cuidadosamente diseñado entre autoatenciones y redes feed-forward. Este modelo fue ajustado a partir del checkpoint de HuggingFace google/mobilebert-uncased en SQuAD2.0. Fue entrenado con Python 3.7.5 en una CPU Intel(R) Core(TM) i7-6800K @ 3.40GHz, 32 GiB de memoria y 2 GPUs GeForce GTX 1070 cada una con 8 GiB de memoria.

Como usar

from transformers import pipeline

qa_pipeline = pipeline(
"question-answering",
model="csarron/mobilebert-uncased-squad-v2",
tokenizer="csarron/mobilebert-uncased-squad-v2")

predictions = qa_pipeline({
'context': "El juego se jugó el 7 de febrero de 2016 en el Levi's Stadium en el área de la Bahía de San Francisco en Santa Clara, California.",
'question': "¿Qué día se jugó el juego?"
})

print(predictions)
# output:
# {'score': 0.71434086561203, 'start': 23, 'end': 39, 'answer': '7 de febrero de 2016'}

Funcionalidades

Versión reducida de BERT_LARGE
Equilibrio entre autoatenciones y redes feed-forward
Ajustado en SQuAD2.0
Implementación en PyTorch y ONNX
Tamaño del modelo: 95M

Casos de uso

Respuesta a preguntas con contexto
Aplicaciones de procesamiento de lenguaje natural
Automatización de sistemas de soporte al cliente