videomae-base-videomae-asl
Este modelo es una versión ajustada de MCG-NJU/videomae-base en un conjunto de datos desconocido. Obtiene los siguientes resultados en el conjunto de evaluación: Pérdida: 0.2106, Precisión: 0.9375. Más información es necesaria en la descripción del modelo, los usos previstos y las limitaciones, así como los datos de entrenamiento y evaluación.
Como usar
El siguiente hiperparámetros se utilizaron durante el entrenamiento:
- learning_rate: 5e-05
- train_batch_size: 8
- eval_batch_size: 8
- seed: 42
- optimizador: Adam con betas=(0.9,0.999) y epsilon=1e-08
- lr_scheduler_type: lineal
- lr_scheduler_warmup_ratio: 0.1
- training_steps: 720
Resultados del entrenamiento
| Pérdida de Entrenamiento| Época| Paso| Pérdida de Validación| Precisión|
|-------------------------|------|-----|---------------------|---------|
| 1.7142| 0.12| 90| 1.7574| 0.2|
| 1.2973| 1.12| 180| 1.0885| 0.625|
| 0.7412| 2.12| 270| 0.3997| 0.9|
| 0.3196| 3.12| 360| 0.3584| 0.8875|
| 0.3123| 4.12| 450| 0.3616| 0.8875|
| 0.1454| 5.12| 540| 0.3104| 0.925|
| 0.237| 6.12| 630| 0.1316| 0.95|
| 0.1447| 7.12| 720| 0.2106| 0.9375|
Versiones de framework
- Transformers 4.38.2
- Pytorch 2.1.2
- Datasets 2.1.0
- Tokenizers 0.15.2
Funcionalidades
- Clasificación de video
- Transformers
- TensorBoard
- Safetensors
- Generado a partir del entrenador
- Puntos finales de inferencia
Casos de uso
- Clasificación de videos
- Uso en proyectos que requieren transformar datos de video en etiquetas categóricas