videomae-base-finetuned-ucf101-subset
Este modelo es una versión afinada de MCG-NJU/videomae-base en un conjunto de datos desconocido. Obtiene los siguientes resultados en el conjunto de evaluación: Pérdida: 0.2091 Precisión: 0.9429
Como usar
Los siguientes hiperparámetros fueron utilizados durante el entrenamiento:
learning_rate: 5e-05
train_batch_size: 1
eval_batch_size: 1
seed: 42
optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
lr_scheduler_type: linear
lr_scheduler_warmup_ratio: 0.1
training_steps: 1200
Resultados del entrenamiento:
| Pérdida de Entrenamiento | Época | Paso | Pérdida de Validación | Precisión |
|-------------------------|-------|------|----------------------|-----------|
| 1.3834 | 0.25 | 300 | 1.1783 | 0.5714 |
| 2.5838 | 1.25 | 600 | 1.3998 | 0.6 |
| 0.0371 | 2.25 | 900 | 0.9554 | 0.8 |
| 0.9005 | 3.25 | 1200 | 0.2091 | 0.9429 |
Funcionalidades
- Transformadores
- PyTorch
- videomae
- Generado a partir de Trainer
- Puntos finales de inferencia
Casos de uso
- Clasificación de videos