videomae-base-finetuned-ucf101-subset
Este modelo es una versión ajustada de MCG-NJU/videomae-base en un conjunto de datos desconocido. Alcanza los siguientes resultados en el conjunto de evaluación: Pérdida: 0.4043, Precisión: 0.8968. Este modelo clasifica videos utilizando Transformers y PyTorch.
Como usar
El modelo no tiene suficiente actividad para ser desplegado en Inference API (sin servidor) todavía. Aumente su visibilidad social y vuelva a consultar más tarde, o despliegue en Inference Endpoints (dedicado).
Hiperparámetros de Entrenamiento
Los siguientes hiperparámetros fueron utilizados durante el entrenamiento:
- learning_rate: 5e-05
- train_batch_size: 4
- eval_batch_size: 4
- seed: 42
- optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
- lr_scheduler_type: linear
- lr_scheduler_warmup_ratio: 0.1
- training_steps: 300
Resultados del Entrenamiento
| Pérdida de Entrenamiento | Epoch | Step | Pérdida de Validación | Precisión |
|--------------------------|-------|------|-----------------------|-----------|
| 1.835 | 0.25 | 75 | 1.5384 | 0.4143 |
| 0.5822 | 1.25 | 150 | 0.6968 | 0.8 |
| 0.2967 | 2.25 | 225 | 0.3601 | 0.9143 |
| 0.0952 | 3.25 | 300 | 0.2773 | 0.9 |
Versiones del Framework
- Transformers 4.33.2
- Pytorch 2.0.1+cu118
- Datasets 2.14.5
- Tokenizers 0.13.3
Funcionalidades
- Clasificación de videos
- Ajustado con videomae
- Generado a partir de Trainer Inference Endpoints
Casos de uso
- Clasificación de videos