distilbert-base-uncased-finetuned-squad
marioarteaga
Pregunta y respuesta
Este modelo es una versión afinada de distilbert-base-uncased en el conjunto de datos SQuAD. Está diseñado para tareas de respuesta a preguntas utilizando la arquitectura de Transformers y PyTorch. El modelo se genera a partir de Trainer y puede ser desplegado en Endpoints de Inferencia. Logra una pérdida de 1.2052 en el conjunto de evaluación.
Como usar
Se utilizaron los siguientes hiperparámetros durante el entrenamiento:
learning_rate: 2e-05
train_batch_size: 16
eval_batch_size: 16
seed: 42
optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
lr_scheduler_type: linear
num_epochs: 1
Resultados del entrenamiento:
- Pérdida de Entrenamiento: 1.2493
- Época: 1.0
- Paso: 5533
- Pérdida de Validación: 1.2052
Funcionalidades
- Afinado en el conjunto de datos SQuAD.
- Arquitectura basada en Transformers.
- Compatible con PyTorch.
- Puede ser monitoreado con TensorBoard.
- Licencia Apache 2.0.
Casos de uso
- Respuesta a preguntas en sistemas de asistencia virtual.
- Búsqueda de información en bases de datos textuales.
- Generación automática de FAQ.