AdapterHub/bert-base-uncased-pf-squad_v2
AdapterHub
Pregunta y respuesta
Un adaptador para el modelo bert-base-uncased que se entrenó en el conjunto de datos qa/squad2 e incluye una cabeza de predicción para responder preguntas. Este adaptador fue creado para utilizarse con la biblioteca adapter-transformers.
Como usar
Primero, instala adapter-transformers:
pip install -U adapter-transformers
Nota: adapter-transformers es un fork de transformers que actúa como un reemplazo directo con soporte para adaptadores.
Ahora, el adaptador se puede cargar y activar de la siguiente manera:
from transformers import AutoModelWithHeads
model = AutoModelWithHeads.from_pretrained("bert-base-uncased")
adapter_name = model.load_adapter("AdapterHub/bert-base-uncased-pf-squad_v2", source="hf")
model.active_adapters = adapter_name
Funcionalidades
- Adaptador para el modelo bert-base-uncased
- Entrenado en el conjunto de datos qa/squad2
- Incluye una cabeza de predicción para responder preguntas
- Compatible con la biblioteca adapter-transformers
Casos de uso
- Respuestas a preguntas