vit-base-beans

nateraw
Clasificación de imagen

Este modelo es una versión ajustada de google/vit-base-patch16-224-in21k en el conjunto de datos de frijoles. Alcanza los siguientes resultados en el conjunto de evaluación: Pérdida: 0.0942 y Precisión: 0.9774.

Como usar

Este modelo está entrenado con los siguientes hiperparámetros:

learning_rate: 2e-05
train_batch_size: 8
eval_batch_size: 8
seed: 1337
optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
lr_scheduler_type: lineal
num_epochs: 5.0

Resultados del entrenamiento: | Epoch | Pérdida de Entrenamiento | Paso | Pérdida de Validación | Precisión | |-------|--------------------------|------|-----------------------|-----------| | 1.0 | 0.2809 | 130 | 0.2287 | 0.9699 | | 2.0 | 0.1097 | 260 | 0.1676 | 0.9624 | | 3.0 | 0.1027 | 390 | 0.0942 | 0.9774 | | 4.0 | 0.0923 | 520 | 0.1104 | 0.9699 | | 5.0 | 0.1726 | 650 | 0.1030 | 0.9699 |

Versiones del framework usadas:

  • Transformers 4.10.0.dev0
  • Pytorch 1.9.0+cu102
  • Datasets 1.11.1.dev0
  • Tokenizers 0.10.3

Funcionalidades

Clasificación de imágenes
Transformers
PyTorch
TensorBoard

Casos de uso

Clasificación de imágenes de frijoles
Modelos de transferencia de aprendizaje
Investigación en el desarrollo de modelos de visión por computadora