videomae-base-finetuned-ucf101-subset
abduldattijo
Clasificación de video
Este modelo es una versión ajustada de MCG-NJU/videomae-base en un conjunto de datos desconocido. Este modelo se utiliza para la clasificación de videos y ha conseguido los siguientes resultados en el conjunto de evaluación: Pérdida: 0.2479, Precisión: 0.9149.
Como usar
Hiperparámetros de Entrenamiento
Los siguientes hiperparámetros se utilizaron durante el entrenamiento:
learning_rate: 5e-05
train_batch_size: 16
eval_batch_size: 16
seed: 42
optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
lr_scheduler_type: linear
lr_scheduler_warmup_ratio: 0.1
training_steps: 72
Resultados de Entrenamiento
-
Época 0.26 - Paso 19 - Pérdida de Validación: 0.5155, Precisión: 0.7837
-
Época 1.26 - Paso 38 - Pérdida de Validación: 0.3733, Precisión: 0.8333
-
Época 2.26 - Paso 57 - Pérdida de Validación: 0.3509, Precisión: 0.8404
-
Época 3.21 - Paso 72 - Pérdida de Validación: 0.2479, Precisión: 0.9149
Versiones del Marco de Trabajo
- Transformers 4.35.0.dev0
- Pytorch 2.1.0+cu118
- Datasets 2.12.0
- Tokenizers 0.14.1
Funcionalidades
- Clasificación de videos
- Transformers
- PyTorch
- TensorBoard
Casos de uso
- Clasificación de videos en función del contenido
- Segmentación de videos
- Análisis de actividades en videos