videomae-base-finetuned-ucf101-subset-buddhika-weerasinghe
BuddhikaWeerasinghe
Clasificación de video
Este modelo es una versión afinada de MCG-NJU/videomae-base en un conjunto de datos desconocido. Logra los siguientes resultados en el conjunto de evaluación: Pérdida: 8.1890 Precisión: 0.0
Como usar
#### Hiperparámetros de entrenamiento
Los siguientes hiperparámetros se utilizaron durante el entrenamiento:
- learning_rate: 5e-05
- train_batch_size: 2
- eval_batch_size: 2
- seed: 42
- optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
- lr_scheduler_type: lineal
- lr_scheduler_warmup_ratio: 0.1
- training_steps: 1800
#### Resultados del entrenamiento
- Pérdida de entrenamiento
- exactitud
- Epoch 0.1: Pérdida 2.4105, Val Pérdida 1.6309, Precisón 0.4615
- Epoch 1.1: Pérdida 0.9175, Val Pérdida 0.4374, Precisión 0.8787
- Epoch 2.1: Pérdida 0.5086, Val Pérdida 0.3801, Precisión 0.8905
- Epoch 3.1: Pérdida 0.2994, Val Pérdida 0.3462, Precisión 0.8817
- Epoch 4.1: Pérdida 0.1555, Val Pérdida 0.3274, Precisión 0.9231
- Epoch 5.1: Pérdida 0.1337, Val Pérdida 0.1435, Precisión 0.9615
- Epoch 6.1: Pérdida 0.021, Val Pérdida 0.1879, Precisión 0.9615
- Epoch 7.1: Pérdida 0.0485, Val Pérdida 0.1055, Precisión 0.9675
- Epoch 8.1: Pérdida 0.0019, Val Pérdida 0.0864, Precisión 0.9763
- Epoch 9.1: Pérdida 0.0054, Val Pérdida 0.0839, Precisión 0.9763
#### Versiones de los Frameworks
- Transformers 4.30.2
- PyTorch 2.0.0
- Datasets 2.1.0
- Tokenizers 0.13.3
Funcionalidades
- Clasificación de videos
- Transformadores
- PyTorch
- TensorBoard
- Generado a partir de Trainer
- Licencia: cc-by-nc-4.0
Casos de uso
- Clasificación de actividades en video
- Etiquetado de contenido multimedia
- Sistemas de reconocimiento de acción en tiempo real