videomae-base-SOCAL1-finetune

RRHF
Clasificación de video

Este modelo es una versión ajustada del modelo MCG-NJU/videomae-base en un conjunto de datos desconocido. Alcanzó los siguientes resultados en el conjunto de evaluación: Pérdida: 0.7345, F1: 0.7429.

Como usar

Los siguientes hiperparámetros fueron utilizados durante el entrenamiento:

- learning_rate: 1e-05
- train_batch_size: 4
- eval_batch_size: 4
- seed: 42
- optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
- lr_scheduler_type: linear
- lr_scheduler_warmup_ratio: 0.1
- training_steps: 92

Ejemplos de resultados de entrenamiento:

No log
0.25
23
0.6788
0.8235
No log
1.25
46
0.6501
0.8235
No log
2.25
69
0.6339
0.8235
No log
3.25
92
0.6372
0.8235

Versiones del framework:

- Transformers 4.35.2
- Pytorch 2.1.0+cu118
- Datasets 2.14.7
- Tokenizers 0.15.0

Funcionalidades

Clasificación de video
Transformadores
Compatible con TensorBoard
Formato de archivo Safetensors

Casos de uso

Clasificación de videos para identificar contenido específico
Entrenamiento y evaluación en datasets personalizados de video