deepset/flan-t5-xl-squad2

deepset
Pregunta y respuesta

Este es el modelo flan-t5-xl, afinado utilizando el conjunto de datos SQuAD2.0. Ha sido entrenado en pares de preguntas y respuestas, incluyendo preguntas sin respuesta, para la tarea de Respuesta a Preguntas Extractiva. Puedes usar este modelo en una canalización de Haystack para hacer respuesta a preguntas extractiva a escala (sobre muchos documentos). También se puede usar con Transformers de Hugging Face.

Como usar

En Haystack

Haystack es un framework NLP de deepset. Puedes usar este modelo en una canalización de Haystack para hacer respuesta a preguntas extractiva a escala (sobre muchos documentos). Para cargar el modelo en Haystack:

# NOTA: Esto solo funciona con Haystack v2.0!
reader = ExtractiveReader("deepset/flan-t5-xl-squad2")

En Transformers

from transformers import AutoModelForQuestionAnswering, AutoTokenizer, pipeline

model_name = "deepset/flan-t5-xl-squad2"

# a) Obtener predicciones
nlp = pipeline('question-answering', model=model_name, tokenizer=model_name)
QA_input = {
'question': '¿Por qué es importante la conversión de modelos?',
'context': 'La opción de convertir modelos entre FARM y transformers da libertad al usuario y permite a las personas cambiar fácilmente entre frameworks.'
}
res = nlp(QA_input)

# b) Cargar modelo y tokenizador
model = AutoModelForQuestionAnswering.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)

Funcionalidades

Modelo de lenguaje: flan-t5-xl
Tarea downstream: QA Extractiva
Datos de entrenamiento: SQuAD 2.0
Datos de evaluación: SQuAD 2.0
Aprendizaje en preguntas sin respuesta
Compatible con Haystack y Transformers

Casos de uso

Crear sistemas de respuesta a preguntas en producción
Respuesta a preguntas extractiva
Procesamiento de preguntas sin respuesta