ft-videomae-ucf101

aisuko
Clasificación de video

Este modelo es una versión ajustada de MCG-NJU/videomae-base-finetuned-kinetics en el conjunto de datos aisuko/funsd-layoutlmv3. Este modelo se utiliza para la clasificación de videos y fue generado a partir de Trainer Inference Endpoints. En el conjunto de evaluación, alcanza los siguientes resultados: Pérdida: 0.1498, Precisión: 1.0.

Como usar

Este modelo se puede utilizar para tareas de clasificación de videos. Aquí están los hiperparámetros usados durante el entrenamiento:

learning_rate: 5e-05
train_batch_size: 4
eval_batch_size: 4
seed: 42
optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
lr_scheduler_type: linear
lr_scheduler_warmup_ratio: 0.1
training_steps: 150
mixed_precision_training: Native AMP

Resultados del entrenamiento:

  • Pérdida de Entrenamiento: 0.2519

  • Época: 0.5

  • Paso: 75

  • Pérdida de Validación: 0.1498

  • Precisión: 1.0

  • Pérdida de Entrenamiento: 0.0746

  • Época: 1.5

  • Paso: 150

  • Pérdida de Validación: 0.0278

  • Precisión: 1.0

Versión del Framework:

  • Transformers 4.35.2
  • Pytorch 2.0.0
  • Datasets 2.1.0
  • Tokenizers 0.15.0

Funcionalidades

Clasificación de videos
Basado en Transformers
Compatibilidad con Safetensors
Entrenamiento con precisión mixta Native AMP

Casos de uso

Clasificar videos de diferentes categorías
Análisis de contenido de video
Aplicaciones en reconocimiento de actividades en videos