mbartolo/roberta-large-synqa-ext
mbartolo
Pregunta y respuesta
Este es un modelo de Preguntas y Respuestas (QA) basado en RoBERTa-Large, entrenado en dos etapas. Primero, se entrena en datos adversariales sintéticos generados usando un generador de preguntas BART-Large sobre pasajes de Wikipedia del conjunto de datos SQuAD, así como pasajes de Wikipedia externos a SQuAD. Luego, se entrena en SQuAD y AdversarialQA en una segunda etapa de ajuste fino.
Como usar
Cómo utilizar el modelo
from transformers import AutoTokenizer, AutoModelForQuestionAnswering
tokenizer = AutoTokenizer.from_pretrained('mbartolo/roberta-large-synqa-ext')
model = AutoModelForQuestionAnswering.from_pretrained('mbartolo/roberta-large-synqa-ext')
question, text = 'Where do I live?', 'My name is Wolfgang and I live in Berlin'
inputs = tokenizer(question, text, add_special_tokens=True, return_tensors='pt')
answer = model(**inputs)
Funcionalidades
- Modelo basado en RoBERTa-Large
- Entrenado en dos etapas
- Usa datos adversariales sintéticos y pasajes de Wikipedia
- Ajuste fino en SQuAD y AdversarialQA
- Orientado a responder preguntas
Casos de uso
- Responder preguntas basadas en pasajes de texto
- Construcción de asistentes virtuales
- Mejorar robustez y adversarialidad en modelos de QA