bert-finetuned-squad

min-seong
Pregunta y respuesta

Este modelo es una versión fine-tuned de bert-base-cased en un conjunto de datos desconocido.

Como usar

Este modelo puede ser utilizado para tareas de respuesta a preguntas utilizando Transformers. A continuación se presentan los hiperparámetros utilizados durante el entrenamiento:

learning_rate: 2e-05
train_batch_size: 8
eval_batch_size: 8
seed: 42
optimizer: Adam with betas=(0.9,0.999) y epsilon=1e-08
lr_scheduler_type: linear
num_epochs: 3
mixed_precision_training: Native AMP

Las versiones del marco de trabajo utilizadas son las siguientes:

Transformers 4.42.4
Pytorch 2.3.1+cu121
Datasets 2.20.0
Tokenizers 0.19.1

Funcionalidades

0 likes
Respuestas a preguntas
Transformers
TensorBoard
Safetensors
Generado a partir de Trainer
Puntos finales de inferencia

Casos de uso

Respuesta a preguntas