bert-small-finetuned-squadv2

mrm8488
Pregunta y respuesta

BERT-Small creado por Google Research y afinado en SQuAD 2.0 para la tarea descendente de preguntas y respuestas (Q&A). El tamaño del modelo después del entrenamiento es de 109.74 MB.

Como usar

Uso rápido con pipelinas:

from transformers import pipeline

qa_pipeline = pipeline(
"question-answering",
model="mrm8488/bert-small-finetuned-squadv2",
tokenizer="mrm8488/bert-small-finetuned-squadv2")

qa_pipeline({
'context': "Manuel Romero ha estado trabajando arduamente en el repositorio hugginface/transformers últimamente",
'question': "¿Quién ha estado trabajando arduamente para hugginface/transformers últimamente?"
})

# Salida:

{
"answer": "Manuel Romero",
"end": 13,
"score": 0.9939319924374637,
"start": 0
}

¡Sí! Eso fue fácil 🎉 Probemos con otro ejemplo

qa_pipeline({
'context': "Manuel Romero ha estado trabajando arduamente en el repositorio hugginface/transformers últimamente",
'question': "¿Para qué compañía ha trabajado Manuel Romero?"
})

# Salida:

{
"answer": "hugginface/transformers",
"end": 79,
"score": 0.6024888734447131,
"start": 56
}

¡Funciona! 🎉 🎉 🎉

Funcionalidades

Parte de 24 modelos BERT más pequeños (solo inglés, sin mayúsculas, entrenados con enmascaramiento de WordPiece)
Diseñados para entornos con recursos computacionales restringidos
Más efectivos en el contexto de la destilación de conocimiento

Casos de uso

Responder preguntas basadas en un contexto dado
Determinar cuándo una pregunta no tiene respuesta apoyada en el párrafo