videomae-base-less_precisión-detección_de_acción
Este modelo es una versión ajustada de MCG-NJU/videomae-base en un conjunto de datos desconocido. Logra los siguientes resultados en el conjunto de evaluación: Pérdida: 1.8868 Precisión: 0.5391.
Como usar
Los siguientes hiperparámetros se usaron durante el entrenamiento:
learning_rate: 5e-05
train_batch_size: 2
eval_batch_size: 2
seed: 42
optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
lr_scheduler_type: linear
lr_scheduler_warmup_ratio: 0.1
training_steps: 1216
Resultados del entrenamiento:
| Pérdida de Entrenamiento | Época | Paso | Pérdida de Validación | Precisión |
|---------------------------|-------|------|----------------------|-----------|
| 1.2463 | 0.25 | 305 | 1.1609 | 0.6420 |
| 1.2048 | 1.25 | 610 | 2.4836 | 0.3210 |
| 0.9462 | 2.25 | 915 | 2.2188 | 0.5021 |
| 1.2819 | 3.25 | 1216 | 1.8868 | 0.5391 |
Versiones del framework:
- Transformers 4.37.2
- Pytorch 2.1.2+cu121
- Datasets 2.16.1
- Tokenizers 0.15.1
Funcionalidades
- Clasificación de Video
- Transformers
- TensorBoard
- Safetensors
- Generado por un Entrenador
Casos de uso
- Detección de acciones en videos.
- Clasificación de clips de video según el contenido de la acción.