squad-mbert-en-de-es-model
ZYW
Pregunta y respuesta
Este modelo fue entrenado desde cero en un conjunto de datos desconocido.
Como usar
Aún se necesita más información
Hiperparámetros utilizados durante el entrenamiento:
learning_rate: 2e-05
train_batch_size: 2
eval_batch_size: 2
seed: 42
optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
lr_scheduler_type: linear
num_epochs: 2
Versiones del framework:
Transformers 4.6.1
Pytorch 1.8.1+cu101
Datasets 1.7.0
Tokenizers 0.10.3
Funcionalidades
- Transformers
- PyTorch
- bert
Casos de uso
- Pregunta y respuesta