AdapterHub/bert-base-uncased-pf-cq
AdapterHub
Pregunta y respuesta
Un adaptador para el modelo bert-base-uncased que se entrenó en el conjunto de datos qa/cq e incluye una cabeza de predicción para responder preguntas. Este adaptador fue creado para usarse con la biblioteca adapter-transformers.
Como usar
Primero, instala adapter-transformers:
pip install -U adapter-transformers
Nota: adapter-transformers es un fork de transformers que actúa como un reemplazo directo con soporte para adaptadores.
Ahora, el adaptador se puede cargar y activar de esta manera:
from transformers import AutoModelWithHeads
model = AutoModelWithHeads.from_pretrained("bert-base-uncased")
adapter_name = model.load_adapter("AdapterHub/bert-base-uncased-pf-cq", source="hf")
model.active_adapters = adapter_name
Funcionalidades
- Entrenado en el conjunto de datos qa/cq
- Incluye una cabeza de predicción para responder preguntas
- Creado para usarse con la biblioteca adapter-transformers
Casos de uso
- Responder preguntas