deepset/roberta-base-squad2
syndi-models
Pregunta y respuesta
Este es el modelo roberta-base, ajustado utilizando el conjunto de datos SQuAD2.0. Ha sido entrenado en pares de preguntas y respuestas, incluyendo preguntas que no tienen respuesta, para la tarea de pregunta respuesta.
Como usar
En Haystack
Haystack es un marco NLP de deepset. Puedes utilizar este modelo en una pipeline de Haystack para hacer pregunta respuesta a escala (sobre muchos documentos). Para cargar el modelo en Haystack:
reader = FARMReader(model_name_or_path="deepset/roberta-base-squad2")
# o
reader = TransformersReader(model_name_or_path="deepset/roberta-base-squad2",tokenizer="deepset/roberta-base-squad2")
Para un ejemplo completo de roberta-base-squad2 siendo utilizado para Pregunta Respuesta, consulta los Tutoriales en la Documentación de Haystack.
En Transformers
from transformers import AutoModelForQuestionAnswering, AutoTokenizer, pipeline
model_name = "deepset/roberta-base-squad2"
# a) Obtener predicciones
nlp = pipeline('question-answering', model=model_name, tokenizer=model_name)
QA_input = {
'question': 'Why is model conversion important?',
'context': 'The option to convert models between FARM and transformers gives freedom to the user and let people easily switch between frameworks.'
}
res = nlp(QA_input)
# b) Cargar modelo y tokenizador
model = AutoModelForQuestionAnswering.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)
Funcionalidades
- Modelo lingüístico: roberta-base
- Idioma: Inglés
- Tarea downstream: QA extractiva
- Datos de entrenamiento: SQuAD 2.0
- Datos de evaluación: SQuAD 2.0
- Código: Ver un ejemplo de pipeline QA en Haystack
- Infraestructura: 4x Tesla v100
Casos de uso
- Pregunta Respuesta a nivel documento
- Predicción de respuestas a preguntas específicas