videomae-base-finetuned-ElderReact-Fear

minhah
Clasificación de video

Este modelo es una versión ajustada de MCG-NJU/videomae-base en un conjunto de datos desconocido. Este modelo logra los siguientes resultados en el conjunto de evaluación: Pérdida: 0.3077, F1: 0.9518.

Como usar

Cómo usar el modelo:

  1. Este modelo de videomae-base-finetuned-ElderReact es adecuado para la clasificación de videos.
  2. Los hiperparámetros de entrenamiento fueron: learning_rate: 5e-05, train_batch_size: 8, eval_batch_size: 8, seed: 42, optimizer: Adam (betas=(0.9,0.999), epsilon=1e-08), lr_scheduler_type: linear, lr_scheduler_warmup_ratio: 0.1, training_steps: 380.

Resultados del Entrenamiento

Pérdida del Entrenamiento

Época
Paso
Pérdida de Validación
F1

0.2935
0.2
77
0.2524
0.9642

0.3966
1.2
154
0.2537
0.9642

0.3792
2.2
231
0.2470
0.9642

0.3666
3.2
308
0.2570
0.9642

0.2803
4.19
380
0.2484
0.9642

Versiones de Framework

- Transformers 4.38.2
- Pytorch 2.1.0+cu121
- Datasets 2.18.0
- Tokenizers 0.15.2

Funcionalidades

Clasificación de Video
Transformers
Safetensors
Generado a partir del Trainer

Casos de uso

Clasificación de videos
Identificación de emociones en videos