ft-videomae-ucf101
aisuko
Clasificación de video
Este modelo es una versión ajustada de MCG-NJU/videomae-base-finetuned-kinetics en el conjunto de datos aisuko/funsd-layoutlmv3. Este modelo se utiliza para la clasificación de videos y fue generado a partir de Trainer Inference Endpoints. En el conjunto de evaluación, alcanza los siguientes resultados: Pérdida: 0.1498, Precisión: 1.0.
Como usar
Este modelo se puede utilizar para tareas de clasificación de videos. Aquí están los hiperparámetros usados durante el entrenamiento:
learning_rate: 5e-05
train_batch_size: 4
eval_batch_size: 4
seed: 42
optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
lr_scheduler_type: linear
lr_scheduler_warmup_ratio: 0.1
training_steps: 150
mixed_precision_training: Native AMP
Resultados del entrenamiento:
-
Pérdida de Entrenamiento: 0.2519
-
Época: 0.5
-
Paso: 75
-
Pérdida de Validación: 0.1498
-
Precisión: 1.0
-
Pérdida de Entrenamiento: 0.0746
-
Época: 1.5
-
Paso: 150
-
Pérdida de Validación: 0.0278
-
Precisión: 1.0
Versión del Framework:
- Transformers 4.35.2
- Pytorch 2.0.0
- Datasets 2.1.0
- Tokenizers 0.15.0
Funcionalidades
- Clasificación de videos
- Basado en Transformers
- Compatibilidad con Safetensors
- Entrenamiento con precisión mixta Native AMP
Casos de uso
- Clasificar videos de diferentes categorías
- Análisis de contenido de video
- Aplicaciones en reconocimiento de actividades en videos