deepset/roberta-base-squad2
deepset
Pregunta y respuesta
Este es el modelo roberta-base, afinado utilizando el conjunto de datos SQuAD2.0. Ha sido entrenado en pares de preguntas y respuestas, incluyendo preguntas sin respuesta, para la tarea de Respuesta a Preguntas.
Como usar
En Haystack
Haystack es un marco de NLP desarrollado por deepset. Puedes usar este modelo en una tubería Haystack para hacer respuesta a preguntas a escala (sobre muchos documentos). Para cargar el modelo en Haystack:
reader = FARMReader(model_name_or_path="deepset/roberta-base-squad2")
# o
reader = TransformersReader(model_name_or_path="deepset/roberta-base-squad2", tokenizer="deepset/roberta-base-squad2")
Para un ejemplo completo de roberta-base-squad2 siendo utilizado para la respuesta a preguntas, revisa los Tutoriales en la Documentación de Haystack
En Transformers
from transformers import AutoModelForQuestionAnswering, AutoTokenizer, pipeline
model_name = "deepset/roberta-base-squad2"
# a) Obtener predicciones
nlp = pipeline('question-answering', model=model_name, tokenizer=model_name)
QA_input = {
'question': '¿Por qué es importante la conversión de modelos?',
'context': 'La opción de convertir modelos entre FARM y transformers da libertad al usuario y permite a la gente cambiar fácilmente entre marcos.'
}
res = nlp(QA_input)
# b) Cargar modelo & tokenizer
model = AutoModelForQuestionAnswering.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)
Funcionalidades
- Funciona con múltiples bibliotecas: PyTorch, TensorFlow, JAX, Rust, etc.
- Compatibilidad con endpoints de inferencia
- Incluye soporte para safetensors
- Modelo basado en roberta
- Entrenado en el conjunto de datos SQuAD v2
- Licencia: cc-by-4.0
Casos de uso
- Respuesta a preguntas sobre muchos documentos
- Conversión entre marcos FARM y transformers
- Uso en sistemas de NLP de producción