videomae-base-finetuned-ucf101-subset

taechawan
Clasificación de video

Este modelo es una versión afinada de MCG-NJU/videomae-base en un conjunto de datos desconocido. Logra los siguientes resultados en el conjunto de evaluación: Pérdida: 0.5799, Precisión: 0.8258.

Como usar

Este modelo se puede utilizar para la clasificación de video. Los parámetros de entrenamiento incluyen:

- learning_rate: 5e-05
- train_batch_size: 2
- eval_batch_size: 2
- seed: 42
- optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
- lr_scheduler_type: linear
- lr_scheduler_warmup_ratio: 0.1
- training_steps: 300

Los resultados del entrenamiento fueron:

- Pérdida de entrenamiento: 1.3002
- Época: 0.5
- Paso: 150
- Pérdida de validación: 1.1338
- Precisión: 0.7

- Pérdida de entrenamiento: 0.6626
- Época: 1.5
- Paso: 300
- Pérdida de validación: 0.6922
- Precisión: 0.7857

Funcionalidades

Clasificación de Video
Transformers
TensorBoard
Safetensors

Casos de uso

Clasificación de videos en diferentes categorías.
Despliegue en endpoints de inferencia dedicados.