distilbert-finetuned-squadv2

FuuToru
Pregunta y respuesta

Este modelo es una versión afinada de distilbert-base-uncased en un conjunto de datos desconocido.

Como usar

El modelo fue entrenado con los siguientes hiperparámetros:

learning_rate: 2e-05
train_batch_size: 8
eval_batch_size: 8
seed: 42
optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
lr_scheduler_type: linear
num_epochs: 4
mixed_precision_training: Native AMP

Versiones de Framework

  • Transformers 4.41.2
  • Pytorch 2.1.2
  • Datasets 2.19.2
  • Tokenizers 0.19.1

Funcionalidades

Transformers
TensorBoard
Safetensors
Generado desde Trainer

Casos de uso

No disponible, más información necesaria