deepset/bert-medium-squad2-distilled
deepset
Pregunta y respuesta
Un modelo de lenguaje basado en Transformers y PyTorch, entrenado con safetensors y datos del conjunto de entrenamiento SQuAD 2.0. Utiliza el modelo 'deepset/bert-large-uncased-whole-word-masking-squad2' como modelo maestro a través de la característica de destilación de Haystack. Publicado el 21 de abril de 2021 y entrenado en una GPU V100.
Como usar
# Uso del modelo para Responder Preguntas
# Cargar el modelo
from transformers import pipeline
qa_pipeline = pipeline('question-answering', model='deepset/bert-medium-squad2-distilled')
# Ejemplo de cómo usar el modelo
context = 'Hugging Face es una empresa que proporciona herramientas para aplicaciones de procesamiento del lenguaje natural.'
question = '¿Qué proporciona Hugging Face?'
result = qa_pipeline({'context': context, 'question': question})
print(f'Resultado: {result}')
Funcionalidades
- Modelo de lenguaje: deepset/roberta-base-squad2-distilled
- Datos de entrenamiento: Conjunto de entrenamiento de SQuAD 2.0
- Datos de evaluación: Conjunto de desarrollo de SQuAD 2.0
- Infraestructura: 1x GPU V100
- Modelo maestro: deepset/bert-large-uncased-whole-word-masking-squad2
- Exactitud: 68.64%
- F1: 72.76%
Casos de uso
- Sistemas de respuesta a preguntas en aplicaciones comerciales
- Chats automatizados y asistentes virtuales
- Sistemas de búsqueda de información
- Análisis de texto y consultoría en lenguaje natural