electra_large_discriminator_squad2_512
Andranik
Pregunta y respuesta
Este modelo es una versión ajustada de ahotrod/electra_large_discriminator_squad2_512 en un conjunto de datos desconocido.
Como usar
Tasa de aprendizaje (learning_rate): 5e-05
Tamaño de lote de entrenamiento (train_batch_size): 8
Tamaño de lote de evaluación (eval_batch_size): 8
Semilla (seed): 42
Optimizador (optimizer): Adam con betas=(0.9, 0.999) y epsilon=1e-08
Tipo de programador de la tasa de aprendizaje (lr_scheduler_type): lineal
Número de épocas (num_epochs): 3.0
Funcionalidades
- Transformers
- PyTorch
- Electra
- Generado a partir de Trainer
- Puntos de Inferencia
- Versión de framework: Transformers 4.17.0.dev0, PyTorch 1.10.2, Datasets 1.18.3, Tokenizers 0.11.0