siwat/videomae-base-finetuned-ucf101-subset

siwat
Clasificación de video

Este modelo es una versión ajustada de MCG-NJU/videomae-base en un conjunto de datos desconocido. Logra los siguientes resultados en el conjunto de evaluación: Pérdida: 0.4788, Precisión: 0.8194.

Como usar

El siguiente modelo se puede utilizar para la clasificación de videos. A continuación, se detallan los hiperparámetros utilizados durante el entrenamiento:

learning_rate: 5e-05
train_batch_size: 2
eval_batch_size: 2
seed: 42
optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
lr_scheduler_type: linear
lr_scheduler_warmup_ratio: 0.1
training_steps: 300

Para la implementación, es necesario utilizar los siguientes frameworks y versiones:

Transformers 4.38.2
Pytorch 2.1.0+cu121
Datasets 2.18.0
Tokenizers 0.15.2

Funcionalidades

Clasificación de videos
Compatible con Transformers
Integración con TensorBoard
Uso de Safetensors

Casos de uso

Clasificación de videos en diferentes categorías
Evaluación de conjuntos de datos de videos