deepset/roberta-base-squad2

syndi-models
Pregunta y respuesta

Este es el modelo roberta-base, ajustado utilizando el conjunto de datos SQuAD2.0. Ha sido entrenado en pares de preguntas y respuestas, incluyendo preguntas que no tienen respuesta, para la tarea de pregunta respuesta.

Como usar

En Haystack

Haystack es un marco NLP de deepset. Puedes utilizar este modelo en una pipeline de Haystack para hacer pregunta respuesta a escala (sobre muchos documentos). Para cargar el modelo en Haystack:

reader = FARMReader(model_name_or_path="deepset/roberta-base-squad2")
# o
reader = TransformersReader(model_name_or_path="deepset/roberta-base-squad2",tokenizer="deepset/roberta-base-squad2")

Para un ejemplo completo de roberta-base-squad2 siendo utilizado para Pregunta Respuesta, consulta los Tutoriales en la Documentación de Haystack.

En Transformers

from transformers import AutoModelForQuestionAnswering, AutoTokenizer, pipeline

model_name = "deepset/roberta-base-squad2"

# a) Obtener predicciones
nlp = pipeline('question-answering', model=model_name, tokenizer=model_name)
QA_input = {
'question': 'Why is model conversion important?',
'context': 'The option to convert models between FARM and transformers gives freedom to the user and let people easily switch between frameworks.'
}
res = nlp(QA_input)

# b) Cargar modelo y tokenizador
model = AutoModelForQuestionAnswering.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)

Funcionalidades

Modelo lingüístico: roberta-base
Idioma: Inglés
Tarea downstream: QA extractiva
Datos de entrenamiento: SQuAD 2.0
Datos de evaluación: SQuAD 2.0
Código: Ver un ejemplo de pipeline QA en Haystack
Infraestructura: 4x Tesla v100

Casos de uso

Pregunta Respuesta a nivel documento
Predicción de respuestas a preguntas específicas