deepset/bert-large-uncased-whole-word-masking-squad2
deepset
Pregunta y respuesta
Este es un modelo bert-large, afinado usando el conjunto de datos SQuAD2.0 para la tarea de respuesta a preguntas.
Como usar
En Haystack
Haystack es un marco de NLP por deepset. Puedes usar este modelo en un pipeline de Haystack para realizar respuestas a preguntas a gran escala (sobre muchos documentos). Para cargar el modelo en Haystack:
reader = FARMReader(model_name_or_path="deepset/bert-large-uncased-whole-word-masking-squad2")
# o
reader = TransformersReader(model_name_or_path="FILL",tokenizer="deepset/bert-large-uncased-whole-word-masking-squad2")
En Transformers
from transformers import AutoModelForQuestionAnswering, AutoTokenizer, pipeline
model_name = "deepset/bert-large-uncased-whole-word-masking-squad2"
# a) Obtener predicciones
nlp = pipeline('question-answering', model=model_name, tokenizer=model_name)
QA_input = {
'question': '¿Por qué es importante la conversión de modelos?',
'contexto': 'La opción de convertir modelos entre FARM y transformers da libertad al usuario y permite a las personas cambiar fácilmente entre marcos.'
}
res = nlp(QA_input)
# b) Cargar modelo y tokenizer
model = AutoModelForQuestionAnswering.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)
Funcionalidades
- Este es un modelo bert-large.
- Afinado usando el conjunto de datos SQuAD2.0.
- Tarea de respuesta a preguntas.
Casos de uso
- Respuesta a preguntas a gran escala.
- Implementación en un pipeline de Haystack.
- Uso en proyectos que requieren respuesta a preguntas utilizando NLP.