videomae-base-finetuned-ucf101-subset

rickysk
Clasificación de video

Este modelo es una versión ajustada de MCG-NJU/videomae-base en un conjunto de datos desconocido. Alcanza los siguientes resultados en el conjunto de evaluación: Pérdida: 0.3230 Precisión: 0.8968

Como usar

Se utilizó los siguientes hiperparámetros durante el entrenamiento:

learning_rate: 5e-05
train_batch_size: 4
eval_batch_size: 4
seed: 42
optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
lr_scheduler_type: linear
lr_scheduler_warmup_ratio: 0.1
training_steps: 1200

Resultados de entrenamiento por pasos:

Pérdida de Entrenamiento
Época
Paso
Pérdida de Validación
Precisión

2.1382
0.06
75
2.1056
0.2571

0.8185
1.06
150
0.6270
0.8

0.5221
2.06
225
0.4341
0.8

0.1069
3.06
300
0.4390
0.8714

0.0195
4.06
375
0.2938
0.8571

0.0097
5.06
450
0.2114
0.9

0.0076
6.06
525
0.1509
0.9429

0.1686
7.06
600
0.2527
0.9571

0.0679
8.06
675
0.0615
0.9714

0.0024
9.06
750
0.1589
0.9429

0.1946
10.06
825
0.4014
0.9

0.154
11.06
900
0.1862
0.9429

0.0021
12.06
975
0.0683
0.9857

0.0019
13.06
1050
0.0541
0.9857

0.002
14.06
1125
0.0473
0.9857

0.0018
15.06
1200
0.0475
0.9857

Las versiones de los marcos utilizados:

Transformers 4.29.1
Pytorch 2.0.1+cu117
Datasets 2.12.0
Tokenizers 0.13.3

Funcionalidades

Clasificación de Video
Transformers
PyTorch
Generado desde Trainer
Inference Endpoints

Casos de uso

Clasificación automática de videos
Análisis de contenido visual
Mejora de búsqueda en bases de datos de videos