videomae-base-finetuned-ucf101-subset

mhori
Clasificación de video

Este modelo es una versión afinada de MCG-NJU/videomae-base en un conjunto de datos desconocido. Alcanza los siguientes resultados en el conjunto de evaluación: Pérdida: 0.1994, Precisión: 0.9290.

Como usar

Procedimiento de entrenamiento

Los siguientes hiperparámetros fueron utilizados durante el entrenamiento:

  • learning_rate: 5e-05
  • train_batch_size: 2
  • eval_batch_size: 2
  • seed: 42
  • optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
  • lr_scheduler_type: linear
  • lr_scheduler_warmup_ratio: 0.1
  • training_steps: 600

Resultados del entrenamiento:

| Época | Paso | Pérdida de validación | Precisión | |-------|------|-----------------------|-----------| | 1.199 | 0.25 | 150 | 1.1445 | 0.6 | | 0.9296| 1.25 | 300 | 0.4473 | 0.8143 | | 0.0549| 2.25 | 450 | 0.3688 | 0.8429 | | 0.4483| 3.25 | 600 | 0.2308 | 0.9286 |

Versiones del marco

  • Transformers 4.41.0
  • Pytorch 2.3.0+cu121
  • Datasets 2.19.1
  • Tokenizers 0.19.1

Funcionalidades

Clasificación de video
Transformers
Safetensors
Generado a partir de Trainer

Casos de uso

Clasificación de actividades en videos.
Analizar contenido de video para aplicaciones de seguridad.
Aplicaciones en deportes para identificar actividades y mejorar estrategias.