videomae-base-SOCAL1-finetune
RRHF
Clasificación de video
Este modelo es una versión ajustada del modelo MCG-NJU/videomae-base en un conjunto de datos desconocido. Alcanzó los siguientes resultados en el conjunto de evaluación: Pérdida: 0.7345, F1: 0.7429.
Como usar
Los siguientes hiperparámetros fueron utilizados durante el entrenamiento:
- learning_rate: 1e-05
- train_batch_size: 4
- eval_batch_size: 4
- seed: 42
- optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
- lr_scheduler_type: linear
- lr_scheduler_warmup_ratio: 0.1
- training_steps: 92
Ejemplos de resultados de entrenamiento:
No log
0.25
23
0.6788
0.8235
No log
1.25
46
0.6501
0.8235
No log
2.25
69
0.6339
0.8235
No log
3.25
92
0.6372
0.8235
Versiones del framework:
- Transformers 4.35.2
- Pytorch 2.1.0+cu118
- Datasets 2.14.7
- Tokenizers 0.15.0
Funcionalidades
- Clasificación de video
- Transformadores
- Compatible con TensorBoard
- Formato de archivo Safetensors
Casos de uso
- Clasificación de videos para identificar contenido específico
- Entrenamiento y evaluación en datasets personalizados de video