bert-base-spanish_squad_es-TFM_4-Question-Answering

JoelVIU
Pregunta y respuesta

Este modelo es una versión afinada de bert-base-multilingual-cased en el conjunto de datos squad_es. No hay suficiente información adicional proporcionada.

Como usar

Los siguientes hiperparámetros se utilizaron durante el entrenamiento:

learning_rate: 2e-05
train_batch_size: 8
eval_batch_size: 8
seed: 42
optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
lr_scheduler_type: linear
num_epochs: 3
mixed_precision_training: AMP Nativa

Funcionalidades

Afinado en el conjunto de datos squad_es
Soporte para transformers
Soporte para PyTorch
Integración con TensorBoard

Casos de uso

Pregunta y respuesta