bert-base-spanish_squad_es-TFM_4-Question-Answering
JoelVIU
Pregunta y respuesta
Este modelo es una versión afinada de bert-base-multilingual-cased en el conjunto de datos squad_es. No hay suficiente información adicional proporcionada.
Como usar
Los siguientes hiperparámetros se utilizaron durante el entrenamiento:
learning_rate: 2e-05
train_batch_size: 8
eval_batch_size: 8
seed: 42
optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
lr_scheduler_type: linear
num_epochs: 3
mixed_precision_training: AMP Nativa
Funcionalidades
- Afinado en el conjunto de datos squad_es
- Soporte para transformers
- Soporte para PyTorch
- Integración con TensorBoard
Casos de uso
- Pregunta y respuesta