vasudevgupta/bigbird-roberta-natural-questions

vasudevgupta
Pregunta y respuesta

Este punto de control se obtiene después de entrenar BigBirdForQuestionAnswering (con una cabeza de pooler adicional) en el conjunto de datos natural_questions durante aproximadamente 2 semanas en 2 GPUs K80. El script para entrenamiento se puede encontrar aquí: https://github.com/vasudevgupta7/bigbird

Como usar

Usa este modelo como cualquier otro modelo de 🤗Transformers

from transformers import BigBirdForQuestionAnswering

model_id = "vasudevgupta/bigbird-roberta-natural-questions"
model = BigBirdForQuestionAnswering.from_pretrained(model_id)
tokenizer = BigBirdTokenizer.from_pretrained(model_id)

En caso de que estés interesado en predecir la categoría (nulo, largo, corto, sí, no) también, utiliza BigBirdForNaturalQuestions (en lugar de BigBirdForQuestionAnswering) desde mi script de entrenamiento.

Funcionalidades

Transformers
PyTorch
big_bird
question-answering
licencia: apache-2.0
compatible con los endpoints de inferencia
Entrenado en el conjunto de datos: natural_questions

Casos de uso

Responder a preguntas
Procesamiento de lenguaje natural
Despliegue en endpoints de inferencia