albertina-squad-v1.1-pt.br

ArthurBaia
Pregunta y respuesta

Este modelo es una versión ajustada de PORTULAN/albertina-ptbr en el conjunto de datos ArthurBaia/squad_v1_pt_br.

Como usar

Los siguientes hiperparámetros se utilizaron durante el entrenamiento:

learning_rate: 2e-05
train_batch_size: 64
eval_batch_size: 8
seed: 42
optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
lr_scheduler_type: linear
num_epochs: 3.0

Resultados del entrenamiento:

{
"epoch": 3.0,
"eval_exact_match": 76.96310312204352,
"eval_f1": 87.82372321450285,
"eval_runtime": 189.7132,
"eval_samples": 10977,
"eval_samples_per_second": 57.861,
"eval_steps_per_second": 7.237
}

Versiones del marco de trabajo:

Transformers 4.31.0.dev0
Pytorch 2.0.1+cu117
Datasets 2.13.1
Tokenizers 0.13.3

Funcionalidades

Transformers
PyTorch
Safetensors

Casos de uso

Model Question Answering