ericRosello/distilbert-base-uncased-finetuned-squad-frozen-v1
ericRosello
Pregunta y respuesta
Este modelo es una versión ajustada de distilbert-base-uncased en el conjunto de datos squad. Las ponderaciones del modelo base fueron congeladas, dejando solo fina tunear la última capa (qa outputs).
Como usar
Uso del modelo: Este modelo se puede desplegar para responder a preguntas. Aquí tienes los hiperparámetros y resultados del entrenamiento: learning_rate: 2e-05 train_batch_size: 16 eval_batch_size: 16 seed: 42 optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08 lr_scheduler_type: linear num_epochs: 3 Resultados del entrenamiento: Pérdida: 4.3629 EM logrado: 4.7776726584673606 F1: 11.440882287905591
Funcionalidades
- Respuesta a preguntas
- Transformers
- PyTorch
- TensorBoard
- Conjunto de datos squad
- Modelo distilbert
- Generado a partir de Trainer
- Puntos de inferencia
Casos de uso
- Responde preguntas basadas en el contenido del conjunto de datos squad