albertina-squad-v1.1-pt.br
ArthurBaia
Pregunta y respuesta
Este modelo es una versión ajustada de PORTULAN/albertina-ptbr en el conjunto de datos ArthurBaia/squad_v1_pt_br.
Como usar
Los siguientes hiperparámetros se utilizaron durante el entrenamiento:
learning_rate: 2e-05
train_batch_size: 64
eval_batch_size: 8
seed: 42
optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
lr_scheduler_type: linear
num_epochs: 3.0
Resultados del entrenamiento:
{
"epoch": 3.0,
"eval_exact_match": 76.96310312204352,
"eval_f1": 87.82372321450285,
"eval_runtime": 189.7132,
"eval_samples": 10977,
"eval_samples_per_second": 57.861,
"eval_steps_per_second": 7.237
}
Versiones del marco de trabajo:
Transformers 4.31.0.dev0
Pytorch 2.0.1+cu117
Datasets 2.13.1
Tokenizers 0.13.3
Funcionalidades
- Transformers
- PyTorch
- Safetensors
Casos de uso
- Model Question Answering