vit-base-beans
Este modelo es una versión ajustada de google/vit-base-patch16-224-in21k en el conjunto de datos de frijoles. Alcanza los siguientes resultados en el conjunto de evaluación: Pérdida: 0.0942 y Precisión: 0.9774.
Como usar
Este modelo está entrenado con los siguientes hiperparámetros:
learning_rate: 2e-05
train_batch_size: 8
eval_batch_size: 8
seed: 1337
optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
lr_scheduler_type: lineal
num_epochs: 5.0
Resultados del entrenamiento:
| Epoch | Pérdida de Entrenamiento | Paso | Pérdida de Validación | Precisión |
|-------|--------------------------|------|-----------------------|-----------|
| 1.0 | 0.2809 | 130 | 0.2287 | 0.9699 |
| 2.0 | 0.1097 | 260 | 0.1676 | 0.9624 |
| 3.0 | 0.1027 | 390 | 0.0942 | 0.9774 |
| 4.0 | 0.0923 | 520 | 0.1104 | 0.9699 |
| 5.0 | 0.1726 | 650 | 0.1030 | 0.9699 |
Versiones del framework usadas:
- Transformers 4.10.0.dev0
- Pytorch 1.9.0+cu102
- Datasets 1.11.1.dev0
- Tokenizers 0.10.3
Funcionalidades
- Clasificación de imágenes
- Transformers
- PyTorch
- TensorBoard
Casos de uso
- Clasificación de imágenes de frijoles
- Modelos de transferencia de aprendizaje
- Investigación en el desarrollo de modelos de visión por computadora