squad-mbert-en-de-es-model

ZYW
Pregunta y respuesta

Este modelo fue entrenado desde cero en un conjunto de datos desconocido.

Como usar

Aún se necesita más información

Hiperparámetros utilizados durante el entrenamiento:

learning_rate: 2e-05
train_batch_size: 2
eval_batch_size: 2
seed: 42
optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
lr_scheduler_type: linear
num_epochs: 2

Versiones del framework:

Transformers 4.6.1
Pytorch 1.8.1+cu101
Datasets 1.7.0
Tokenizers 0.10.3

Funcionalidades

Transformers
PyTorch
bert

Casos de uso

Pregunta y respuesta