videomae-base-finetuned-ucf101-subset

astraeaz
Clasificación de video

Este modelo es una versión ajustada de MCG-NJU/videomae-base en un conjunto de datos desconocido. Consigue los siguientes resultados en el conjunto de evaluación: Pérdida (Loss): 0.5154 y Precisión (Accuracy): 0.8452.

Como usar

Este modelo se puede utilizar para tareas de clasificación de videos.

Los hiperparámetros utilizados durante el entrenamiento son:

learning_rate: 5e-05
train_batch_size: 2
eval_batch_size: 2
seed: 42
optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
lr_scheduler_type: linear
lr_scheduler_warmup_ratio: 0.1
training_steps: 300

Las versiones de los marcos utilizados son:

Transformers 4.38.2
Pytorch 2.1.0+cu121
Datasets 2.18.0
Tokenizers 0.15.2

Los resultados de entrenamiento son:

Pérdida de entrenamiento
Epoca
Paso
Pérdida de validación
Precisión

0.9913
0.5
150
0.9971
0.6429

0.7052
1.5
300
0.5163
0.8286

Funcionalidades

Clasificación de video
Transformadores (Transformers)
Compatible con TensorBoard
Pesos seguros (Safetensors)
Generado a partir de Trainer

Casos de uso

Clasificación de actividades en videos
Análisis de contenido de videoclips