vit-base-patch16-224-in21k-finetuned-cifar10

aaraki
Clasificación de imagen

Este modelo es una versión afinada de google/vit-base-patch16-224-in21k en el conjunto de datos cifar10. Logra los siguientes resultados en el conjunto de evaluación: Pérdida: 0.2564, Precisión: 0.9788.

Como usar

A continuación se muestran los hiperparámetros utilizados durante el entrenamiento:

learning_rate: 5e-05
train_batch_size: 32
eval_batch_size: 32
seed: 42
gradient_accumulation_steps: 4
total_train_batch_size: 128
optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
lr_scheduler_type: linear
lr_scheduler_warmup_ratio: 0.1
num_epochs: 1

Funcionalidades

Clasificación de imágenes
Transformers
PyTorch
TensorBoard

Casos de uso

Clasificación de imágenes en el conjunto de datos cifar10

Recibe las últimas noticias y actualizaciones sobre el mundo de IA directamente en tu bandeja de entrada.