VideoMAEF-finetuned-ARSL-diverse-dataset

mohamedsaeed823
Clasificación de video

Este modelo es una versión afinada de MCG-NJU/videomae-base-finetuned-kinetics en un conjunto de datos desconocido. Logra los siguientes resultados en el conjunto de evaluación: Pérdida: 0.0012, Precisión: 1.0. Más información se necesitaba acerca de la descripción completa del modelo, usos previstos y limitaciones, y los datos de entrenamiento y evaluación.

Como usar

Aquí hay algunos hiperparámetros utilizados durante el entrenamiento:

learning_rate: 2.5e-05
train_batch_size: 2
eval_batch_size: 2
seed: 42
optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
lr_scheduler_type: lineal
lr_scheduler_warmup_ratio: 0.1
training_steps: 2395

Resultados de entrenamiento:

Pérdida de entrenamiento
Epoch
Paso
Pérdida de validación
Precisión

1.0485
0.12
298
1.1148
0.6854

0.7256
1.12
596
0.1032
1.0

0.2052
2.12
894
0.0057
1.0

0.0451
3.12
1192
0.0028
1.0

0.1821
4.12
1490
0.0020
1.0

0.0965
5.12
1788
0.0015
1.0

0.0873
6.12
2086
0.0012
1.0

0.0027
7.12
2384
0.0011
1.0

0.1222
8.0
2395
0.0012
1.0

Versiones de framework:

Transformers 4.39.3
Pytorch 2.1.2
Datasets 2.18.0
Tokenizers 0.15.2

Funcionalidades

Clasificación de videos
Transformers
Compatibilidad con TensorBoard
Safetensors
Generado a partir de Trainer
Puntos finales de inferencia

Casos de uso

Clasificación de videos
Evaluación de videos para análisis de contenido