AdapterHub/bert-base-uncased-pf-cq

AdapterHub
Pregunta y respuesta

Un adaptador para el modelo bert-base-uncased que se entrenó en el conjunto de datos qa/cq e incluye una cabeza de predicción para responder preguntas. Este adaptador fue creado para usarse con la biblioteca adapter-transformers.

Como usar

Primero, instala adapter-transformers:

pip install -U adapter-transformers

Nota: adapter-transformers es un fork de transformers que actúa como un reemplazo directo con soporte para adaptadores.

Ahora, el adaptador se puede cargar y activar de esta manera:

from transformers import AutoModelWithHeads

model = AutoModelWithHeads.from_pretrained("bert-base-uncased")
adapter_name = model.load_adapter("AdapterHub/bert-base-uncased-pf-cq", source="hf")
model.active_adapters = adapter_name

Funcionalidades

Entrenado en el conjunto de datos qa/cq
Incluye una cabeza de predicción para responder preguntas
Creado para usarse con la biblioteca adapter-transformers

Casos de uso

Responder preguntas