videomae-base-finetuned-ucf101-subset
JIGNESHS110
Clasificación de video
Este modelo es una versión afinada del modelo MCG-NJU/videomae-base en un conjunto de datos desconocido. Logra los siguientes resultados en el conjunto de evaluación: - Pérdida: 0.1075 - Precisión: 0.9571.
Como usar
Este modelo todavía no tiene suficiente actividad para ser desplegado en la API de Inferencia (sin servidor). Aumenta su visibilidad social y revisa más tarde, o despliega en Endpoints de Inferencia (dedicados) en su lugar.
Hiperparámetros de Entrenamiento:
- learning_rate: 5e-05
- train_batch_size: 2
- eval_batch_size: 2
- seed: 42
- optimizer: Adam con betas=(0.9, 0.999) y epsilon=1e-08
- lr_scheduler_type: linear
- lr_scheduler_warmup_ratio: 0.1
- training_steps: 600
Resultados de Entrenamiento:
- Epoch 0.25: Pérdida de Validación 0.9622, Precisión 0.7
- Epoch 1.25: Pérdida de Validación 0.5604, Precisión 0.8571
- Epoch 2.25: Pérdida de Validación 0.2851, Precisión 0.8429
- Epoch 3.25: Pérdida de Validación 0.1075, Precisión 0.9571
Versiones del Framework:
- Transformers 4.34.0
- Pytorch 1.10.0+cu113
- Datasets 2.14.5
- Tokenizers 0.14.0.
Funcionalidades
- Clasificación de video
- Transformers
- PyTorch
- videomae
- Generado a partir de Trainer
- Endpoints de Inferencia
Casos de uso
- Clasificación de videos
- Análisis de videos para aplicaciones deportivas
- Segmentación de contenido en redes sociales
- Detección de movimientos/acciones en videos