ericRosello/distilbert-base-uncased-finetuned-squad-frozen-v1

ericRosello
Pregunta y respuesta

Este modelo es una versión ajustada de distilbert-base-uncased en el conjunto de datos squad. Las ponderaciones del modelo base fueron congeladas, dejando solo fina tunear la última capa (qa outputs).

Como usar

Uso del modelo: Este modelo se puede desplegar para responder a preguntas. Aquí tienes los hiperparámetros y resultados del entrenamiento: learning_rate: 2e-05 train_batch_size: 16 eval_batch_size: 16 seed: 42 optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08 lr_scheduler_type: linear num_epochs: 3 Resultados del entrenamiento: Pérdida: 4.3629 EM logrado: 4.7776726584673606 F1: 11.440882287905591

Funcionalidades

Respuesta a preguntas
Transformers
PyTorch
TensorBoard
Conjunto de datos squad
Modelo distilbert
Generado a partir de Trainer
Puntos de inferencia

Casos de uso

Responde preguntas basadas en el contenido del conjunto de datos squad