videomae-base-hcg-finetuned
DTempo
Clasificación de video
Este modelo es una versión ajustada de MCG-NJU/videomae-base en un conjunto de datos desconocido. Logra los siguientes resultados en el conjunto de evaluación: Pérdida: 1.8328 Precisión: 0.7407
Como usar
- Tasa de aprendizaje (learning_rate): 5e-05
- Tamaño del lote de entrenamiento (train_batch_size): 4
- Tamaño del lote de evaluación (eval_batch_size): 4
- Semilla (seed): 42
- Optimizador (optimizer): Adam con betas=(0.9,0.999) y epsilon=1e-08
- Tipo de programador de tasa de aprendizaje (lr_scheduler_type): lineal
- Ratio de calentamiento del programador de tasa de aprendizaje (lr_scheduler_warmup_ratio): 0.1
- Pasos de entrenamiento (training_steps): 424
Resultados del entrenamiento
| Pérdida de entrenamiento | Época | Paso | Pérdida de validación | Precisión |
|------------------------|-------|------|----------------------|-----------|
| 0.5813 | 0.25 | 107 | 1.5761 | 0.7037 |
| 0.401 | 1.25 | 214 | 1.1345 | 0.8025 |
| 0.0035 | 2.25 | 321 | 1.6856 | 0.7469 |
| 0.1631 | 3.24 | 424 | 1.8328 | 0.7407 |
Versiones de Framework
- Transformers: 4.35.2
- Pytorch: 2.1.0+cu121
- Datasets: 2.17.0
- Tokenizers: 0.15.2
API de Inferencia
Este modelo no tiene suficiente actividad para ser desplegado en la API de Inferencia (serverless) todavía. Aumenta su visibilidad social y revisa más tarde, o despliega en Puntos de Inferencia (dedicados) en su lugar.
Funcionalidades
- Clasificación de videos
- Uso de Transformers
- Compatibilidad con TensorBoard
- Compatibilidad con Safetensors
- Generado a partir de Trainer
- Puntos de inferencia
Casos de uso
- Clasificación de videos
- Análisis de contenido de video