bert-medium-finetuned-squadv2
mrm8488
Pregunta y respuesta
BERT-Medium creado por Google Research y ajustado en SQuAD 2.0 para tareas de preguntas y respuestas. Incluye 24 modelos BERT más pequeños (solo inglés, sin mayúsculas, entrenados con enmascaramiento de WordPiece). Está destinado a entornos con recursos computacionales restringidos y es más efectivo en el contexto de la destilación de conocimiento.
Como usar
Uso rápido con pipelines:
from transformers import pipeline
qa_pipeline = pipeline(
"question-answering",
model="mrm8488/bert-small-finetuned-squadv2",
tokenizer="mrm8488/bert-small-finetuned-squadv2"
)
qa_pipeline({
'context': "Manuel Romero ha estado trabajando arduamente en el repositorio hugginface/transformers últimamente",
'question': "¿Quién ha estado trabajando arduo para hugginface/transformers últimamente?"
})
# Salida:
{
"answer": "Manuel Romero",
"end": 13,
"score": 0.9939319924374637,
"start": 0
}
Sí! Eso fue fácil 🎉 Vamos a probar con otro ejemplo
qa_pipeline({
'context': "Manuel Romero ha estado trabajando remotamente en el repositorio hugginface/transformers últimamente",
'question': "¿Cómo ha estado trabajando Manuel Romero?"
})
# Salida:
{
"answer": "remotamente",
"end": 39,
"score": 0.3612058272768017,
"start": 31
}
¡Funciona! 🎉 🎉 🎉
Funcionalidades
- Ajuste fino en SQuAD 2.0 para la tarea de preguntas y respuestas
- Tamaño del modelo: 157.46 MB
- Entrenado en un GPU Tesla P100 y 25GB de RAM
- Resultados: EM 65.95, F1 70.11
Casos de uso
- Responder preguntas en contextos predefinidos
- Determinar cuándo una pregunta no tiene respuesta