videomae-base-finetuned-kinetics-finetuned-shoplifting-dataset

Awais1718
Clasificación de video

Este modelo es una versión afinada de MCG-NJU/videomae-base-finetuned-kinetics en un conjunto de datos desconocido. Logra los siguientes resultados en el conjunto de evaluación: Pérdida: 0.9494 F1: 0.7192.

Como usar

Parámetros de hiperentrenamiento

learning_rate: 5e-05 
train_batch_size: 8 
eval_batch_size: 8 
seed: 42 
optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08 
lr_scheduler_type: linear 
lr_scheduler_warmup_ratio: 0.1 
training_steps: 880 

Resultados del entrenamiento

| Pérdida de Entrenamiento | Época | Paso | Pérdida de Validación | F1 | |--------------------------|-------|------|-----------------------|----| | 0.1824 | 0.1011| 89 | 1.0068 |0.6832| | 0.334 | 1.1 | 177 | 0.9260 |0.6805| | 0.2202 | 2.1 |265 |0.9856 |0.7139| | 0.2074 | 3.1 |353 |0.9494 |0.7192| | 0.0916 | 4.1 |441 |1.3867 |0.6711| | 0.1092 | 5.1 |529 |1.3758 |0.6920| | 0.0804 |6.1 |617 |1.3788 |0.6968| | 0.0654 |7.1 |705 |1.2970 |0.6973| | 0.0065 |8.1 |793 |1.4780 |0.7006| | 0.0024 |9.0989 |880 |1.4464 |0.7006|

Versiones del framework

  • Transformers 4.42.4
  • Pytorch 2.2.0
  • Datasets 2.20.0
  • Tokenizers 0.19.1

Este modelo no tiene suficiente actividad para ser desplegado en la API de Inferencia (sin servidor) aún. Aumenta su visibilidad social y vuelve a verificar más tarde, o despliega en los Endpoints de Inferencia (dedicado) en su lugar.

Funcionalidades

Clasificación de Video
Transformadores
Safetensors
Generado a partir de Trainer
Pérdida de 0.9494 en el conjunto de evaluación
F1 Score de 0.7192 en el conjunto de evaluación

Casos de uso

Detección de robos en tiendas mediante clasificación de video