deepset/tinyroberta-squad2

deepset
Pregunta y respuesta

Esta es la versión destilada del modelo deepset/roberta-base-squad2. Este modelo tiene una calidad de predicción comparable y se ejecuta al doble de la velocidad del modelo base.

Como usar

En Haystack

Haystack es un framework de NLP de deepset. Puedes usar este modelo en un pipeline de Haystack para realizar preguntas y respuestas a escala (sobre muchos documentos). Para cargar el modelo en Haystack:

reader = FARMReader(model_name_or_path="deepset/tinyroberta-squad2")
# o
reader = TransformersReader(model_name_or_path="deepset/tinyroberta-squad2")

En Transformers

from transformers import AutoModelForQuestionAnswering, AutoTokenizer, pipeline

model_name = "deepset/tinyroberta-squad2"

# a) Obtener predicciones
nlp = pipeline('question-answering', model=model_name, tokenizer=model_name)
QA_input = {
'question': '¿Por qué es importante la conversión de modelos?',
'context': 'La opción de convertir modelos entre FARM y transformers brinda libertad al usuario y permite a las personas cambiar fácilmente entre frameworks.'
}
res = nlp(QA_input)

# b) Cargar el modelo y el tokenizador
model = AutoModelForQuestionAnswering.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)

Funcionalidades

Modelo de lenguaje: tinyroberta-squad2
Idioma: inglés
Tarea posterior: QA extractiva
Datos de entrenamiento: SQuAD 2.0
Datos de evaluación: SQuAD 2.0
Código: Ver un ejemplo de pipeline de QA en Haystack
Infraestructura: 4x Tesla v100

Casos de uso

Preguntas y respuestas
Extracción de información
Automatización de atención al cliente
Asistencia en tareas de investigación