vasudevgupta/bigbird-roberta-natural-questions
vasudevgupta
Pregunta y respuesta
Este punto de control se obtiene después de entrenar BigBirdForQuestionAnswering (con una cabeza de pooler adicional) en el conjunto de datos natural_questions durante aproximadamente 2 semanas en 2 GPUs K80. El script para entrenamiento se puede encontrar aquí: https://github.com/vasudevgupta7/bigbird
Como usar
Usa este modelo como cualquier otro modelo de 🤗Transformers
from transformers import BigBirdForQuestionAnswering
model_id = "vasudevgupta/bigbird-roberta-natural-questions"
model = BigBirdForQuestionAnswering.from_pretrained(model_id)
tokenizer = BigBirdTokenizer.from_pretrained(model_id)
En caso de que estés interesado en predecir la categoría (nulo, largo, corto, sí, no) también, utiliza BigBirdForNaturalQuestions (en lugar de BigBirdForQuestionAnswering) desde mi script de entrenamiento.
Funcionalidades
- Transformers
- PyTorch
- big_bird
- question-answering
- licencia: apache-2.0
- compatible con los endpoints de inferencia
- Entrenado en el conjunto de datos: natural_questions
Casos de uso
- Responder a preguntas
- Procesamiento de lenguaje natural
- Despliegue en endpoints de inferencia