electra_large_discriminator_squad2_512

Andranik
Pregunta y respuesta

Este modelo es una versión ajustada de ahotrod/electra_large_discriminator_squad2_512 en un conjunto de datos desconocido.

Como usar

Tasa de aprendizaje (learning_rate): 5e-05 Tamaño de lote de entrenamiento (train_batch_size): 8 Tamaño de lote de evaluación (eval_batch_size): 8 Semilla (seed): 42 Optimizador (optimizer): Adam con betas=(0.9, 0.999) y epsilon=1e-08 Tipo de programador de la tasa de aprendizaje (lr_scheduler_type): lineal Número de épocas (num_epochs): 3.0

Funcionalidades

Transformers
PyTorch
Electra
Generado a partir de Trainer
Puntos de Inferencia
Versión de framework: Transformers 4.17.0.dev0, PyTorch 1.10.2, Datasets 1.18.3, Tokenizers 0.11.0

Casos de uso