vit-base-patch16-224-in21k-finetuned-cifar10
aaraki
Clasificación de imagen
Este modelo es una versión afinada de google/vit-base-patch16-224-in21k en el conjunto de datos cifar10. Logra los siguientes resultados en el conjunto de evaluación: Pérdida: 0.2564, Precisión: 0.9788.
Como usar
A continuación se muestran los hiperparámetros utilizados durante el entrenamiento:
learning_rate: 5e-05
train_batch_size: 32
eval_batch_size: 32
seed: 42
gradient_accumulation_steps: 4
total_train_batch_size: 128
optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
lr_scheduler_type: linear
lr_scheduler_warmup_ratio: 0.1
num_epochs: 1
Funcionalidades
- Clasificación de imágenes
- Transformers
- PyTorch
- TensorBoard
Casos de uso
- Clasificación de imágenes en el conjunto de datos cifar10