videomae-base-finetuned-ucf101-subset

ali5341
Clasificación de video

Este modelo es una versión afinada de MCG-NJU/videomae-base en un conjunto de datos desconocido. Logra los siguientes resultados en el conjunto de evaluación: - Pérdida: 1.6506 - Precisión: 0.5587

Como usar

El modelo se puede utilizar para la clasificación de videos. A continuación se presentan algunos de los hiperparámetros utilizados durante el entrenamiento:

learning_rate: 5e-05
train_batch_size: 2
eval_batch_size: 2
seed: 42
optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
lr_scheduler_type: lineal
lr_scheduler_warmup_ratio: 0.1
training_steps: 29760

Resultados del entrenamiento

  • Pérdida de entrenamiento
  • Época
  • Paso
  • Pérdida de validación
  • Precisión
4.1471, 0.2, 5952, 4.1601, 0.0382
4.0729, 1.2, 11904, 3.6134, 0.1013
2.6787, 2.2, 17856, 2.9397, 0.2193
1.722, 3.2, 23808, 2.0974, 0.4241
0.6968, 4.2, 29760, 1.7135, 0.5362

Versiones del marco

  • Transformers 4.33.2
  • Pytorch 2.0.1+cu117
  • Datasets 2.14.5
  • Tokenizers 0.13.3

Funcionalidades

Clasificación de videos
Transformadores
PyTorch
videomae
Generado a partir de Trainer

Casos de uso

Clasificación de videos