bert-small-finetuned-squadv2
mrm8488
Pregunta y respuesta
BERT-Small creado por Google Research y afinado en SQuAD 2.0 para la tarea descendente de preguntas y respuestas (Q&A). El tamaño del modelo después del entrenamiento es de 109.74 MB.
Como usar
Uso rápido con pipelinas:
from transformers import pipeline
qa_pipeline = pipeline(
"question-answering",
model="mrm8488/bert-small-finetuned-squadv2",
tokenizer="mrm8488/bert-small-finetuned-squadv2")
qa_pipeline({
'context': "Manuel Romero ha estado trabajando arduamente en el repositorio hugginface/transformers últimamente",
'question': "¿Quién ha estado trabajando arduamente para hugginface/transformers últimamente?"
})
# Salida:
{
"answer": "Manuel Romero",
"end": 13,
"score": 0.9939319924374637,
"start": 0
}
¡Sí! Eso fue fácil 🎉 Probemos con otro ejemplo
qa_pipeline({
'context': "Manuel Romero ha estado trabajando arduamente en el repositorio hugginface/transformers últimamente",
'question': "¿Para qué compañía ha trabajado Manuel Romero?"
})
# Salida:
{
"answer": "hugginface/transformers",
"end": 79,
"score": 0.6024888734447131,
"start": 56
}
¡Funciona! 🎉 🎉 🎉
Funcionalidades
- Parte de 24 modelos BERT más pequeños (solo inglés, sin mayúsculas, entrenados con enmascaramiento de WordPiece)
- Diseñados para entornos con recursos computacionales restringidos
- Más efectivos en el contexto de la destilación de conocimiento
Casos de uso
- Responder preguntas basadas en un contexto dado
- Determinar cuándo una pregunta no tiene respuesta apoyada en el párrafo