videomae-base-finetuned-ElderReact-Surprise11
Este modelo es una versión afinada de MCG-NJU/videomae-base en un conjunto de datos desconocido. El modelo logra los siguientes resultados en el conjunto de evaluación: Pérdida: 0.6381 Precisión: 0.652
Como usar
Se usaron los siguientes hiperparámetros durante el entrenamiento:
learning_rate: 5e-05
train_batch_size: 16
eval_batch_size: 16
seed: 42
optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
lr_scheduler_type: lineal
lr_scheduler_warmup_ratio: 0.1
training_steps: 380
Resultados del entrenamiento:
| Pérdida de Entrenamiento | Época | Paso | Pérdida de Validación | Precisión |
|--------------------------|-------|------|-----------------------|-----------|
| 0.7047 | 0.1 | 39 | 0.6542 | 0.5892 |
| 0.7111 | 1.1 | 78 | 0.6551 | 0.5854 |
| 0.6839 | 2.1 | 117 | 0.6406 | 0.6508 |
| 0.6872 | 3.1 | 156 | 0.6314 | 0.6307 |
| 0.6678 | 4.1 | 195 | 0.6236 | 0.6671 |
| 0.5806 | 5.1 | 234 | 0.6078 | 0.6482 |
| 0.5697 | 6.1 | 273 | 0.6825 | 0.5980 |
| 0.6127 | 7.1 | 312 | 0.6446 | 0.6005 |
| 0.5645 | 8.1 | 351 | 0.6240 | 0.6307 |
| 0.549 | 9.08 | 380 | 0.6290 | 0.6181 |
La versión de las bibliotecas utilizadas son:
Transformers: 4.38.2
Pytorch: 2.1.0+cu121
Datasets: 2.18.0
Tokenizers: 0.15.2
Funcionalidades
- Clasificación de videos
- Uso de transformers
- Pesos en formato Safetensors
- Generado utilizando Trainer de Hugging Face
- Licencia: cc-by-nc-4.0
Casos de uso
- Clasificación de videos
- Detección de eventos en videos
- Análisis de reacciones en videos