bert-finetuned-squad
min-seong
Pregunta y respuesta
Este modelo es una versión fine-tuned de bert-base-cased en un conjunto de datos desconocido.
Como usar
Este modelo puede ser utilizado para tareas de respuesta a preguntas utilizando Transformers. A continuación se presentan los hiperparámetros utilizados durante el entrenamiento:
learning_rate: 2e-05
train_batch_size: 8
eval_batch_size: 8
seed: 42
optimizer: Adam with betas=(0.9,0.999) y epsilon=1e-08
lr_scheduler_type: linear
num_epochs: 3
mixed_precision_training: Native AMP
Las versiones del marco de trabajo utilizadas son las siguientes:
Transformers 4.42.4
Pytorch 2.3.1+cu121
Datasets 2.20.0
Tokenizers 0.19.1
Funcionalidades
- 0 likes
- Respuestas a preguntas
- Transformers
- TensorBoard
- Safetensors
- Generado a partir de Trainer
- Puntos finales de inferencia
Casos de uso
- Respuesta a preguntas