deepset/bert-medium-squad2-distilled

deepset
Pregunta y respuesta

Un modelo de lenguaje basado en Transformers y PyTorch, entrenado con safetensors y datos del conjunto de entrenamiento SQuAD 2.0. Utiliza el modelo 'deepset/bert-large-uncased-whole-word-masking-squad2' como modelo maestro a través de la característica de destilación de Haystack. Publicado el 21 de abril de 2021 y entrenado en una GPU V100.

Como usar

# Uso del modelo para Responder Preguntas
# Cargar el modelo
from transformers import pipeline
qa_pipeline = pipeline('question-answering', model='deepset/bert-medium-squad2-distilled')

# Ejemplo de cómo usar el modelo
context = 'Hugging Face es una empresa que proporciona herramientas para aplicaciones de procesamiento del lenguaje natural.'
question = '¿Qué proporciona Hugging Face?'
result = qa_pipeline({'context': context, 'question': question})
print(f'Resultado: {result}')

Funcionalidades

Modelo de lenguaje: deepset/roberta-base-squad2-distilled
Datos de entrenamiento: Conjunto de entrenamiento de SQuAD 2.0
Datos de evaluación: Conjunto de desarrollo de SQuAD 2.0
Infraestructura: 1x GPU V100
Modelo maestro: deepset/bert-large-uncased-whole-word-masking-squad2
Exactitud: 68.64%
F1: 72.76%

Casos de uso

Sistemas de respuesta a preguntas en aplicaciones comerciales
Chats automatizados y asistentes virtuales
Sistemas de búsqueda de información
Análisis de texto y consultoría en lenguaje natural