deepset/roberta-large-squad2

deepset
Pregunta y respuesta

Este es el modelo roberta-large, afinado utilizando el conjunto de datos SQuAD2.0. Ha sido entrenado en pares de preguntas y respuestas, incluyendo preguntas sin respuesta, para la tarea de Respuesta a Preguntas (QA).

Como usar

En Haystack

Haystack es un marco de procesamiento de lenguaje natural creado por deepset. Puedes usar este modelo en una pipeline de Haystack para hacer respuestas a preguntas a escala (sobre muchos documentos). Para cargar el modelo en Haystack:

reader = FARMReader(model_name_or_path="deepset/roberta-large-squad2")
# o
reader = TransformersReader(model_name_or_path="deepset/roberta-large-squad2",tokenizer="deepset/roberta-large-squad2")

Para un ejemplo completo de roberta-large-squad2 siendo usado para respuesta a preguntas, revisa los Tutoriales en la Documentación de Haystack.

En Transformers

from transformers import AutoModelForQuestionAnswering, AutoTokenizer, pipeline

model_name = "deepset/roberta-large-squad2"

# a) Obtener predicciones
nlp = pipeline('question-answering', model=model_name, tokenizer=model_name)
QA_input = {
'question': '¿Por qué es importante la conversión de modelos?',
'context': 'La opción de convertir modelos entre FARM y transformers da libertad al usuario y permite a las personas cambiar fácilmente entre marcos.'
}
res = nlp(QA_input)

# b) Cargar modelo y tokenizador
model = AutoModelForQuestionAnswering.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)

Funcionalidades

Modelo de lenguaje: roberta-large
Tarea downstream: QA Extractiva
Datos de entrenamiento: SQuAD 2.0
Datos de evaluación: SQuAD 2.0

Casos de uso

Responder a preguntas sobre documentos extensos
Construir sistemas de preguntas y respuestas a escala
Investigar y analizar grandes colecciones de datos textuales