videomae-base-finetuned-ucf101-subset

Awais1718
Clasificación de video

Este modelo es una versión afinada de MCG-NJU/videomae-base en un conjunto de datos desconocido. El modelo está diseñado para la clasificación de videos y usa la tecnología de Transformers. Durante la evaluación, logró los siguientes resultados: Pérdida: 0.5018, Precisión: 0.7871.

Como usar

Para usar este modelo, necesitarás seguir estos hiperparámetros que se usaron durante el entrenamiento:

learning_rate: 5e-05
train_batch_size: 8
eval_batch_size: 8
seed: 42
optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
lr_scheduler_type: linear
lr_scheduler_warmup_ratio: 0.1
training_steps: 148

También necesitas las siguientes versiones de frameworks:

Transformers 4.41.2
Pytorch 2.3.1+cu121
Datasets 2.20.0
Tokenizers 0.19.1

Aquí algunos resultados del entrenamiento:

Loss de entrenamiento
Epoch
Paso
Pérdida de validación
Precisión

2.1407
0.2568
38
1.7623
0.5857
0.9823
1.2568
76
0.9803
0.6714
0.4909
2.2568
114
0.5578
0.8429
0.302
3.2297
148
0.4839
0.8571

Funcionalidades

Clasificación de videos
Uso de Transformers
Compatible con TensorBoard
Soporte de Safetensors

Casos de uso

Clasificación de acciones en videos
Detección de eventos específicos en secuencias de video