deepset/flan-t5-xl-squad2
deepset
Pregunta y respuesta
Este es el modelo flan-t5-xl, afinado utilizando el conjunto de datos SQuAD2.0. Ha sido entrenado en pares de preguntas y respuestas, incluyendo preguntas sin respuesta, para la tarea de Respuesta a Preguntas Extractiva. Puedes usar este modelo en una canalización de Haystack para hacer respuesta a preguntas extractiva a escala (sobre muchos documentos). También se puede usar con Transformers de Hugging Face.
Como usar
En Haystack
Haystack es un framework NLP de deepset. Puedes usar este modelo en una canalización de Haystack para hacer respuesta a preguntas extractiva a escala (sobre muchos documentos). Para cargar el modelo en Haystack:
# NOTA: Esto solo funciona con Haystack v2.0!
reader = ExtractiveReader("deepset/flan-t5-xl-squad2")
En Transformers
from transformers import AutoModelForQuestionAnswering, AutoTokenizer, pipeline
model_name = "deepset/flan-t5-xl-squad2"
# a) Obtener predicciones
nlp = pipeline('question-answering', model=model_name, tokenizer=model_name)
QA_input = {
'question': '¿Por qué es importante la conversión de modelos?',
'context': 'La opción de convertir modelos entre FARM y transformers da libertad al usuario y permite a las personas cambiar fácilmente entre frameworks.'
}
res = nlp(QA_input)
# b) Cargar modelo y tokenizador
model = AutoModelForQuestionAnswering.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)
Funcionalidades
- Modelo de lenguaje: flan-t5-xl
- Tarea downstream: QA Extractiva
- Datos de entrenamiento: SQuAD 2.0
- Datos de evaluación: SQuAD 2.0
- Aprendizaje en preguntas sin respuesta
- Compatible con Haystack y Transformers
Casos de uso
- Crear sistemas de respuesta a preguntas en producción
- Respuesta a preguntas extractiva
- Procesamiento de preguntas sin respuesta