deepset/tinyroberta-squad2
deepset
Pregunta y respuesta
Esta es la versión destilada del modelo deepset/roberta-base-squad2. Este modelo tiene una calidad de predicción comparable y se ejecuta al doble de la velocidad del modelo base.
Como usar
En Haystack
Haystack es un framework de NLP de deepset. Puedes usar este modelo en un pipeline de Haystack para realizar preguntas y respuestas a escala (sobre muchos documentos). Para cargar el modelo en Haystack:
reader = FARMReader(model_name_or_path="deepset/tinyroberta-squad2")
# o
reader = TransformersReader(model_name_or_path="deepset/tinyroberta-squad2")
En Transformers
from transformers import AutoModelForQuestionAnswering, AutoTokenizer, pipeline
model_name = "deepset/tinyroberta-squad2"
# a) Obtener predicciones
nlp = pipeline('question-answering', model=model_name, tokenizer=model_name)
QA_input = {
'question': '¿Por qué es importante la conversión de modelos?',
'context': 'La opción de convertir modelos entre FARM y transformers brinda libertad al usuario y permite a las personas cambiar fácilmente entre frameworks.'
}
res = nlp(QA_input)
# b) Cargar el modelo y el tokenizador
model = AutoModelForQuestionAnswering.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)
Funcionalidades
- Modelo de lenguaje: tinyroberta-squad2
- Idioma: inglés
- Tarea posterior: QA extractiva
- Datos de entrenamiento: SQuAD 2.0
- Datos de evaluación: SQuAD 2.0
- Código: Ver un ejemplo de pipeline de QA en Haystack
- Infraestructura: 4x Tesla v100
Casos de uso
- Preguntas y respuestas
- Extracción de información
- Automatización de atención al cliente
- Asistencia en tareas de investigación