videomae-base-finetuned-ucf101-subset-buddhika-weerasinghe

BuddhikaWeerasinghe
Clasificación de video

Este modelo es una versión afinada de MCG-NJU/videomae-base en un conjunto de datos desconocido. Logra los siguientes resultados en el conjunto de evaluación: Pérdida: 8.1890 Precisión: 0.0

Como usar

#### Hiperparámetros de entrenamiento

Los siguientes hiperparámetros se utilizaron durante el entrenamiento:

- learning_rate: 5e-05
- train_batch_size: 2
- eval_batch_size: 2
- seed: 42
- optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
- lr_scheduler_type: lineal
- lr_scheduler_warmup_ratio: 0.1
- training_steps: 1800

#### Resultados del entrenamiento

- Pérdida de entrenamiento
- exactitud

- Epoch 0.1: Pérdida 2.4105, Val Pérdida 1.6309, Precisón 0.4615
- Epoch 1.1: Pérdida 0.9175, Val Pérdida 0.4374, Precisión 0.8787
- Epoch 2.1: Pérdida 0.5086, Val Pérdida 0.3801, Precisión 0.8905
- Epoch 3.1: Pérdida 0.2994, Val Pérdida 0.3462, Precisión 0.8817
- Epoch 4.1: Pérdida 0.1555, Val Pérdida 0.3274, Precisión 0.9231
- Epoch 5.1: Pérdida 0.1337, Val Pérdida 0.1435, Precisión 0.9615
- Epoch 6.1: Pérdida 0.021, Val Pérdida 0.1879, Precisión 0.9615
- Epoch 7.1: Pérdida 0.0485, Val Pérdida 0.1055, Precisión 0.9675
- Epoch 8.1: Pérdida 0.0019, Val Pérdida 0.0864, Precisión 0.9763
- Epoch 9.1: Pérdida 0.0054, Val Pérdida 0.0839, Precisión 0.9763

#### Versiones de los Frameworks

- Transformers 4.30.2
- PyTorch 2.0.0
- Datasets 2.1.0
- Tokenizers 0.13.3

Funcionalidades

Clasificación de videos
Transformadores
PyTorch
TensorBoard
Generado a partir de Trainer
Licencia: cc-by-nc-4.0

Casos de uso

Clasificación de actividades en video
Etiquetado de contenido multimedia
Sistemas de reconocimiento de acción en tiempo real