bert-medium-finetuned-squadv2

mrm8488
Pregunta y respuesta

BERT-Medium creado por Google Research y ajustado en SQuAD 2.0 para tareas de preguntas y respuestas. Incluye 24 modelos BERT más pequeños (solo inglés, sin mayúsculas, entrenados con enmascaramiento de WordPiece). Está destinado a entornos con recursos computacionales restringidos y es más efectivo en el contexto de la destilación de conocimiento.

Como usar

Uso rápido con pipelines:

from transformers import pipeline

qa_pipeline = pipeline(
    "question-answering",
    model="mrm8488/bert-small-finetuned-squadv2",
    tokenizer="mrm8488/bert-small-finetuned-squadv2"
)

qa_pipeline({
    'context': "Manuel Romero ha estado trabajando arduamente en el repositorio hugginface/transformers últimamente",
    'question': "¿Quién ha estado trabajando arduo para hugginface/transformers últimamente?"
})

# Salida:
{
    "answer": "Manuel Romero",
    "end": 13,
    "score": 0.9939319924374637,
    "start": 0
}

Sí! Eso fue fácil 🎉 Vamos a probar con otro ejemplo

qa_pipeline({
    'context': "Manuel Romero ha estado trabajando remotamente en el repositorio hugginface/transformers últimamente",
    'question': "¿Cómo ha estado trabajando Manuel Romero?"
})

# Salida:
{
    "answer": "remotamente",
    "end": 39,
    "score": 0.3612058272768017,
    "start": 31
}

¡Funciona! 🎉 🎉 🎉

Funcionalidades

Ajuste fino en SQuAD 2.0 para la tarea de preguntas y respuestas
Tamaño del modelo: 157.46 MB
Entrenado en un GPU Tesla P100 y 25GB de RAM
Resultados: EM 65.95, F1 70.11

Casos de uso

Responder preguntas en contextos predefinidos
Determinar cuándo una pregunta no tiene respuesta