videomae-base-finetuned-ucf101-subset

JIGNESHS110
Clasificación de video

Este modelo es una versión afinada del modelo MCG-NJU/videomae-base en un conjunto de datos desconocido. Logra los siguientes resultados en el conjunto de evaluación: - Pérdida: 0.1075 - Precisión: 0.9571.

Como usar

Este modelo todavía no tiene suficiente actividad para ser desplegado en la API de Inferencia (sin servidor). Aumenta su visibilidad social y revisa más tarde, o despliega en Endpoints de Inferencia (dedicados) en su lugar.

Hiperparámetros de Entrenamiento:

  • learning_rate: 5e-05
  • train_batch_size: 2
  • eval_batch_size: 2
  • seed: 42
  • optimizer: Adam con betas=(0.9, 0.999) y epsilon=1e-08
  • lr_scheduler_type: linear
  • lr_scheduler_warmup_ratio: 0.1
  • training_steps: 600

Resultados de Entrenamiento:

  • Epoch 0.25: Pérdida de Validación 0.9622, Precisión 0.7
  • Epoch 1.25: Pérdida de Validación 0.5604, Precisión 0.8571
  • Epoch 2.25: Pérdida de Validación 0.2851, Precisión 0.8429
  • Epoch 3.25: Pérdida de Validación 0.1075, Precisión 0.9571

Versiones del Framework:

  • Transformers 4.34.0
  • Pytorch 1.10.0+cu113
  • Datasets 2.14.5
  • Tokenizers 0.14.0.

Funcionalidades

Clasificación de video
Transformers
PyTorch
videomae
Generado a partir de Trainer
Endpoints de Inferencia

Casos de uso

Clasificación de videos
Análisis de videos para aplicaciones deportivas
Segmentación de contenido en redes sociales
Detección de movimientos/acciones en videos