distilbert-finetuned-squadv2
FuuToru
Pregunta y respuesta
Este modelo es una versión afinada de distilbert-base-uncased en un conjunto de datos desconocido.
Como usar
El modelo fue entrenado con los siguientes hiperparámetros:
learning_rate: 2e-05
train_batch_size: 8
eval_batch_size: 8
seed: 42
optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
lr_scheduler_type: linear
num_epochs: 4
mixed_precision_training: Native AMP
Versiones de Framework
- Transformers 4.41.2
- Pytorch 2.1.2
- Datasets 2.19.2
- Tokenizers 0.19.1
Funcionalidades
- Transformers
- TensorBoard
- Safetensors
- Generado desde Trainer
Casos de uso
- No disponible, más información necesaria