videomae-base-finetuned-ucf101-subset
Yash2003
Clasificación de video
Este modelo es una versión afinada de MCG-NJU/videomae-base en un conjunto de datos desconocido. Logra los siguientes resultados en el conjunto de evaluación: Pérdida: 2.3446 y Precisión: 0.1.
Como usar
Parámetros de hiperentrenamiento
Los siguientes hiperparámetros se utilizaron durante el entrenamiento:
- learning_rate: 5e-05
- train_batch_size: 4
- eval_batch_size: 4
- seed: 42
- optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
- lr_scheduler_type: linear
- lr_scheduler_warmup_ratio: 0.1
- training_steps: 300
Resultados del entrenamiento
| Época | Paso | Pérdida de validación | Precisión |
|-------|------|----------------------|-----------|
| 0.25 | 75 | 2.3641 | 0.1143 |
| 1.25 | 150 | 2.2783 | 0.1286 |
| 2.25 | 225 | 2.2791 | 0.1 |
| 3.25 | 300 | 2.3446 | 0.1 |
Versiones del Framework
- Transformers 4.40.2
- Pytorch 2.2.1+cu121
- Datasets 2.19.1
- Tokenizers 0.19.1
Funcionalidades
- Clasificación de videos
- Transformers
- TensorBoard
- Safetensors
- Generado a partir de Trainer Inference Endpoints
Casos de uso
- Clasificación de videos