videomae-base-finetuned-ucf101-subset

bluebird089
Clasificación de video

Este modelo es una versión ajustada del MCG-NJU/videomae-base en un conjunto de datos desconocido. Logra los siguientes resultados en el conjunto de evaluación: Pérdida: 0.2159, Precisión: 0.9429.

Como usar

El modelo se puede utilizar para la clasificación de video. Los hiperparámetros utilizados durante el entrenamiento fueron:

learning_rate: 5e-05
train_batch_size: 1
eval_batch_size: 1
seed: 42
optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
lr_scheduler_type: linear
lr_scheduler_warmup_ratio: 0.1
training_steps: 1200

Resultados del entrenamiento:

Pérdida de entrenamiento
Época
Paso
Pérdida de validación
Precisión

1.2347
0.25
300
1.5487
0.3571

1.0497
1.25
600
0.7867
0.7857

0.3479
2.25
900
0.3544
0.9143

0.0047
3.25
1200
0.2159
0.9429

Versiones del framework:

Transformers 4.38.1
Pytorch 2.1.0+cu121
Datasets 2.17.1
Tokenizers 0.15.2

Funcionalidades

Clasificación de Video
Transformers
TensorBoard
Safetensors
Generado a partir de Trainer
Puntos finales de inferencia

Casos de uso

Clasificación de videos en diferentes categorías
Reconocimiento de acciones en videos