videomae-base-finetuned-ucf101-subset

Mvp-24
Clasificación de video

Este modelo es una versión afinada de MCG-NJU/videomae-base en un conjunto de datos desconocido. Obtiene los siguientes resultados en el conjunto de evaluación: Pérdida: 0.2091 Precisión: 0.9429

Como usar

Los siguientes hiperparámetros fueron utilizados durante el entrenamiento:

learning_rate: 5e-05
train_batch_size: 1
eval_batch_size: 1
seed: 42
optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
lr_scheduler_type: linear
lr_scheduler_warmup_ratio: 0.1
training_steps: 1200

Resultados del entrenamiento:

| Pérdida de Entrenamiento | Época | Paso | Pérdida de Validación | Precisión | |-------------------------|-------|------|----------------------|-----------| | 1.3834 | 0.25 | 300 | 1.1783 | 0.5714 | | 2.5838 | 1.25 | 600 | 1.3998 | 0.6 | | 0.0371 | 2.25 | 900 | 0.9554 | 0.8 | | 0.9005 | 3.25 | 1200 | 0.2091 | 0.9429 |

Funcionalidades

Transformadores
PyTorch
videomae
Generado a partir de Trainer
Puntos finales de inferencia

Casos de uso

Clasificación de videos