videomae-base-hcg-finetuned

DTempo
Clasificación de video

Este modelo es una versión ajustada de MCG-NJU/videomae-base en un conjunto de datos desconocido. Logra los siguientes resultados en el conjunto de evaluación: Pérdida: 1.8328 Precisión: 0.7407

Como usar

  • Tasa de aprendizaje (learning_rate): 5e-05
  • Tamaño del lote de entrenamiento (train_batch_size): 4
  • Tamaño del lote de evaluación (eval_batch_size): 4
  • Semilla (seed): 42
  • Optimizador (optimizer): Adam con betas=(0.9,0.999) y epsilon=1e-08
  • Tipo de programador de tasa de aprendizaje (lr_scheduler_type): lineal
  • Ratio de calentamiento del programador de tasa de aprendizaje (lr_scheduler_warmup_ratio): 0.1
  • Pasos de entrenamiento (training_steps): 424

Resultados del entrenamiento

| Pérdida de entrenamiento | Época | Paso | Pérdida de validación | Precisión |
|------------------------|-------|------|----------------------|-----------|
| 0.5813                 | 0.25  | 107  | 1.5761               | 0.7037    |
| 0.401                  | 1.25  | 214  | 1.1345               | 0.8025    |
| 0.0035                 | 2.25  | 321  | 1.6856               | 0.7469    |
| 0.1631                 | 3.24  | 424  | 1.8328               | 0.7407    |

Versiones de Framework

  • Transformers: 4.35.2
  • Pytorch: 2.1.0+cu121
  • Datasets: 2.17.0
  • Tokenizers: 0.15.2

API de Inferencia

Este modelo no tiene suficiente actividad para ser desplegado en la API de Inferencia (serverless) todavía. Aumenta su visibilidad social y revisa más tarde, o despliega en Puntos de Inferencia (dedicados) en su lugar.

Funcionalidades

Clasificación de videos
Uso de Transformers
Compatibilidad con TensorBoard
Compatibilidad con Safetensors
Generado a partir de Trainer
Puntos de inferencia

Casos de uso

Clasificación de videos
Análisis de contenido de video