mbartolo/roberta-large-synqa-ext

mbartolo
Pregunta y respuesta

Este es un modelo de Preguntas y Respuestas (QA) basado en RoBERTa-Large, entrenado en dos etapas. Primero, se entrena en datos adversariales sintéticos generados usando un generador de preguntas BART-Large sobre pasajes de Wikipedia del conjunto de datos SQuAD, así como pasajes de Wikipedia externos a SQuAD. Luego, se entrena en SQuAD y AdversarialQA en una segunda etapa de ajuste fino.

Como usar

Cómo utilizar el modelo

from transformers import AutoTokenizer, AutoModelForQuestionAnswering

tokenizer = AutoTokenizer.from_pretrained('mbartolo/roberta-large-synqa-ext')
model = AutoModelForQuestionAnswering.from_pretrained('mbartolo/roberta-large-synqa-ext')

question, text = 'Where do I live?', 'My name is Wolfgang and I live in Berlin'
inputs = tokenizer(question, text, add_special_tokens=True, return_tensors='pt')
answer = model(**inputs)

Funcionalidades

Modelo basado en RoBERTa-Large
Entrenado en dos etapas
Usa datos adversariales sintéticos y pasajes de Wikipedia
Ajuste fino en SQuAD y AdversarialQA
Orientado a responder preguntas

Casos de uso

Responder preguntas basadas en pasajes de texto
Construcción de asistentes virtuales
Mejorar robustez y adversarialidad en modelos de QA