videomae-base-finetuned-ucf101-subset
ali5341
Clasificación de video
Este modelo es una versión afinada de MCG-NJU/videomae-base en un conjunto de datos desconocido. Logra los siguientes resultados en el conjunto de evaluación: - Pérdida: 1.6506 - Precisión: 0.5587
Como usar
El modelo se puede utilizar para la clasificación de videos. A continuación se presentan algunos de los hiperparámetros utilizados durante el entrenamiento:
learning_rate: 5e-05
train_batch_size: 2
eval_batch_size: 2
seed: 42
optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
lr_scheduler_type: lineal
lr_scheduler_warmup_ratio: 0.1
training_steps: 29760
Resultados del entrenamiento
- Pérdida de entrenamiento
- Época
- Paso
- Pérdida de validación
- Precisión
4.1471, 0.2, 5952, 4.1601, 0.0382
4.0729, 1.2, 11904, 3.6134, 0.1013
2.6787, 2.2, 17856, 2.9397, 0.2193
1.722, 3.2, 23808, 2.0974, 0.4241
0.6968, 4.2, 29760, 1.7135, 0.5362
Versiones del marco
- Transformers 4.33.2
- Pytorch 2.0.1+cu117
- Datasets 2.14.5
- Tokenizers 0.13.3
Funcionalidades
- Clasificación de videos
- Transformadores
- PyTorch
- videomae
- Generado a partir de Trainer
Casos de uso
- Clasificación de videos