distilbert-base-uncased-finetuned-squad

marioarteaga
Pregunta y respuesta

Este modelo es una versión afinada de distilbert-base-uncased en el conjunto de datos SQuAD. Está diseñado para tareas de respuesta a preguntas utilizando la arquitectura de Transformers y PyTorch. El modelo se genera a partir de Trainer y puede ser desplegado en Endpoints de Inferencia. Logra una pérdida de 1.2052 en el conjunto de evaluación.

Como usar

Se utilizaron los siguientes hiperparámetros durante el entrenamiento:

learning_rate: 2e-05
train_batch_size: 16
eval_batch_size: 16
seed: 42
optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
lr_scheduler_type: linear
num_epochs: 1

Resultados del entrenamiento:

  • Pérdida de Entrenamiento: 1.2493
  • Época: 1.0
  • Paso: 5533
  • Pérdida de Validación: 1.2052

Funcionalidades

Afinado en el conjunto de datos SQuAD.
Arquitectura basada en Transformers.
Compatible con PyTorch.
Puede ser monitoreado con TensorBoard.
Licencia Apache 2.0.

Casos de uso

Respuesta a preguntas en sistemas de asistencia virtual.
Búsqueda de información en bases de datos textuales.
Generación automática de FAQ.