videomae-base-finetuned-kinetics-finetuned-shoplifting-dataset
Este modelo es una versión afinada de MCG-NJU/videomae-base-finetuned-kinetics en un conjunto de datos desconocido. Logra los siguientes resultados en el conjunto de evaluación: Pérdida: 0.9494 F1: 0.7192.
Como usar
Parámetros de hiperentrenamiento
learning_rate: 5e-05
train_batch_size: 8
eval_batch_size: 8
seed: 42
optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
lr_scheduler_type: linear
lr_scheduler_warmup_ratio: 0.1
training_steps: 880
Resultados del entrenamiento
| Pérdida de Entrenamiento | Época | Paso | Pérdida de Validación | F1 |
|--------------------------|-------|------|-----------------------|----|
| 0.1824 | 0.1011| 89 | 1.0068 |0.6832|
| 0.334 | 1.1 | 177 | 0.9260 |0.6805|
| 0.2202 | 2.1 |265 |0.9856 |0.7139|
| 0.2074 | 3.1 |353 |0.9494 |0.7192|
| 0.0916 | 4.1 |441 |1.3867 |0.6711|
| 0.1092 | 5.1 |529 |1.3758 |0.6920|
| 0.0804 |6.1 |617 |1.3788 |0.6968|
| 0.0654 |7.1 |705 |1.2970 |0.6973|
| 0.0065 |8.1 |793 |1.4780 |0.7006|
| 0.0024 |9.0989 |880 |1.4464 |0.7006|
Versiones del framework
- Transformers 4.42.4
- Pytorch 2.2.0
- Datasets 2.20.0
- Tokenizers 0.19.1
Este modelo no tiene suficiente actividad para ser desplegado en la API de Inferencia (sin servidor) aún. Aumenta su visibilidad social y vuelve a verificar más tarde, o despliega en los Endpoints de Inferencia (dedicado) en su lugar.
Funcionalidades
- Clasificación de Video
- Transformadores
- Safetensors
- Generado a partir de Trainer
- Pérdida de 0.9494 en el conjunto de evaluación
- F1 Score de 0.7192 en el conjunto de evaluación
Casos de uso
- Detección de robos en tiendas mediante clasificación de video