videomae-base-finetuned-ucf101-subset
mhori
Clasificación de video
Este modelo es una versión afinada de MCG-NJU/videomae-base en un conjunto de datos desconocido. Alcanza los siguientes resultados en el conjunto de evaluación: Pérdida: 0.1994, Precisión: 0.9290.
Como usar
Procedimiento de entrenamiento
Los siguientes hiperparámetros fueron utilizados durante el entrenamiento:
- learning_rate: 5e-05
- train_batch_size: 2
- eval_batch_size: 2
- seed: 42
- optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
- lr_scheduler_type: linear
- lr_scheduler_warmup_ratio: 0.1
- training_steps: 600
Resultados del entrenamiento:
| Época | Paso | Pérdida de validación | Precisión |
|-------|------|-----------------------|-----------|
| 1.199 | 0.25 | 150 | 1.1445 | 0.6 |
| 0.9296| 1.25 | 300 | 0.4473 | 0.8143 |
| 0.0549| 2.25 | 450 | 0.3688 | 0.8429 |
| 0.4483| 3.25 | 600 | 0.2308 | 0.9286 |
Versiones del marco
- Transformers 4.41.0
- Pytorch 2.3.0+cu121
- Datasets 2.19.1
- Tokenizers 0.19.1
Funcionalidades
- Clasificación de video
- Transformers
- Safetensors
- Generado a partir de Trainer
Casos de uso
- Clasificación de actividades en videos.
- Analizar contenido de video para aplicaciones de seguridad.
- Aplicaciones en deportes para identificar actividades y mejorar estrategias.