distilbert-base-uncased-finetuned-squad2
mvonwyl
Pregunta y respuesta
Este modelo es una versión ajustada de distilbert-base-uncased en el conjunto de datos squad_v2. Logra los siguientes resultados en el conjunto de evaluación: Pérdida: 1.4218.
Como usar
Este modelo se puede utilizar para responder a preguntas en base a un conjunto de datos dado.
Ejemplo de uso de código:
from transformers import pipeline
qa_model = pipeline('question-answering', model='mvonwyl/distilbert-base-uncased-finetuned-squad2')
contexto = 'Hugging Face es una empresa que se especializa en aprendizaje automático.'
pregunta = '¿En qué se especializa Hugging Face?'
respuesta = qa_model(question=pregunta, context=contexto)
print(respuesta)
Funcionalidades
- Ajuste fino en el conjunto de datos squad_v2
- Pérdida de entrenamiento: 1.2023
- Pérdida de validación: 1.4218
- Basado en DistilBERT
- Soporte para Transformers, PyTorch y TensorBoard
- Generado a partir de Trainer
Casos de uso
- Responder preguntas basadas en párrafos de texto
- Automatizar servicios de atención al cliente
- Mejora en motores de búsqueda
- Desarrollo de asistentes virtuales