videomae-base-finetuned-ucf101-subset

ahirtonlopes
Clasificación de video

Este modelo es una versión ajustada de MCG-NJU/videomae-base en un conjunto de datos desconocido. Alcanza los siguientes resultados en el conjunto de evaluación: Pérdida: 0.4043, Precisión: 0.8968. Este modelo clasifica videos utilizando Transformers y PyTorch.

Como usar

El modelo no tiene suficiente actividad para ser desplegado en Inference API (sin servidor) todavía. Aumente su visibilidad social y vuelva a consultar más tarde, o despliegue en Inference Endpoints (dedicado).

Hiperparámetros de Entrenamiento

Los siguientes hiperparámetros fueron utilizados durante el entrenamiento:

  • learning_rate: 5e-05
  • train_batch_size: 4
  • eval_batch_size: 4
  • seed: 42
  • optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
  • lr_scheduler_type: linear
  • lr_scheduler_warmup_ratio: 0.1
  • training_steps: 300

Resultados del Entrenamiento

| Pérdida de Entrenamiento | Epoch | Step | Pérdida de Validación | Precisión | |--------------------------|-------|------|-----------------------|-----------| | 1.835 | 0.25 | 75 | 1.5384 | 0.4143 | | 0.5822 | 1.25 | 150 | 0.6968 | 0.8 | | 0.2967 | 2.25 | 225 | 0.3601 | 0.9143 | | 0.0952 | 3.25 | 300 | 0.2773 | 0.9 |

Versiones del Framework

  • Transformers 4.33.2
  • Pytorch 2.0.1+cu118
  • Datasets 2.14.5
  • Tokenizers 0.13.3

Funcionalidades

Clasificación de videos
Ajustado con videomae
Generado a partir de Trainer Inference Endpoints

Casos de uso

Clasificación de videos