videomae-base-finetuned-ucf101-subset

abduldattijo
Clasificación de video

Este modelo es una versión ajustada de MCG-NJU/videomae-base en un conjunto de datos desconocido. Este modelo se utiliza para la clasificación de videos y ha conseguido los siguientes resultados en el conjunto de evaluación: Pérdida: 0.2479, Precisión: 0.9149.

Como usar

Hiperparámetros de Entrenamiento

Los siguientes hiperparámetros se utilizaron durante el entrenamiento:

learning_rate: 5e-05
train_batch_size: 16
eval_batch_size: 16
seed: 42
optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
lr_scheduler_type: linear
lr_scheduler_warmup_ratio: 0.1
training_steps: 72

Resultados de Entrenamiento

  1. Época 0.26 - Paso 19 - Pérdida de Validación: 0.5155, Precisión: 0.7837

  2. Época 1.26 - Paso 38 - Pérdida de Validación: 0.3733, Precisión: 0.8333

  3. Época 2.26 - Paso 57 - Pérdida de Validación: 0.3509, Precisión: 0.8404

  4. Época 3.21 - Paso 72 - Pérdida de Validación: 0.2479, Precisión: 0.9149

Versiones del Marco de Trabajo

  • Transformers 4.35.0.dev0
  • Pytorch 2.1.0+cu118
  • Datasets 2.12.0
  • Tokenizers 0.14.1

Funcionalidades

Clasificación de videos
Transformers
PyTorch
TensorBoard

Casos de uso

Clasificación de videos en función del contenido
Segmentación de videos
Análisis de actividades en videos

Recibe las últimas noticias y actualizaciones sobre el mundo de IA directamente en tu bandeja de entrada.