videomae-base-less_precisión-detección_de_acción

athmurikarthik
Clasificación de video

Este modelo es una versión ajustada de MCG-NJU/videomae-base en un conjunto de datos desconocido. Logra los siguientes resultados en el conjunto de evaluación: Pérdida: 1.8868 Precisión: 0.5391.

Como usar

Los siguientes hiperparámetros se usaron durante el entrenamiento:

learning_rate: 5e-05
train_batch_size: 2
eval_batch_size: 2
seed: 42
optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
lr_scheduler_type: linear
lr_scheduler_warmup_ratio: 0.1
training_steps: 1216

Resultados del entrenamiento:

| Pérdida de Entrenamiento | Época | Paso | Pérdida de Validación | Precisión | |---------------------------|-------|------|----------------------|-----------| | 1.2463 | 0.25 | 305 | 1.1609 | 0.6420 | | 1.2048 | 1.25 | 610 | 2.4836 | 0.3210 | | 0.9462 | 2.25 | 915 | 2.2188 | 0.5021 | | 1.2819 | 3.25 | 1216 | 1.8868 | 0.5391 |

Versiones del framework:

  • Transformers 4.37.2
  • Pytorch 2.1.2+cu121
  • Datasets 2.16.1
  • Tokenizers 0.15.1

Funcionalidades

Clasificación de Video
Transformers
TensorBoard
Safetensors
Generado por un Entrenador

Casos de uso

Detección de acciones en videos.
Clasificación de clips de video según el contenido de la acción.