videomae-base-finetuned-ucf101-subset

Yash2003
Clasificación de video

Este modelo es una versión afinada de MCG-NJU/videomae-base en un conjunto de datos desconocido. Logra los siguientes resultados en el conjunto de evaluación: Pérdida: 2.3446 y Precisión: 0.1.

Como usar

Parámetros de hiperentrenamiento

Los siguientes hiperparámetros se utilizaron durante el entrenamiento:

  • learning_rate: 5e-05
  • train_batch_size: 4
  • eval_batch_size: 4
  • seed: 42
  • optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
  • lr_scheduler_type: linear
  • lr_scheduler_warmup_ratio: 0.1
  • training_steps: 300

Resultados del entrenamiento

| Época | Paso | Pérdida de validación | Precisión | |-------|------|----------------------|-----------| | 0.25 | 75 | 2.3641 | 0.1143 | | 1.25 | 150 | 2.2783 | 0.1286 | | 2.25 | 225 | 2.2791 | 0.1 | | 3.25 | 300 | 2.3446 | 0.1 |

Versiones del Framework

  • Transformers 4.40.2
  • Pytorch 2.2.1+cu121
  • Datasets 2.19.1
  • Tokenizers 0.19.1

Funcionalidades

Clasificación de videos
Transformers
TensorBoard
Safetensors
Generado a partir de Trainer Inference Endpoints

Casos de uso

Clasificación de videos