vivit-b-16x2-kinetics400-finetuned-elder

minhah
Clasificación de video

Este modelo es una versión ajustada de google/vivit-b-16x2-kinetics400 en un conjunto de datos desconocido. Alcanza los siguientes resultados en el conjunto de evaluación: Pérdida: 1.6807, Precisión: 0.3205. Las siguientes hiperparámetros se utilizaron durante el entrenamiento: tasa de aprendizaje: 5e-05, tamaño del lote de entrenamiento: 8, tamaño del lote de evaluación: 8, semilla: 42, optimizador: Adam con betas=(0.9,0.999) y epsilon=1e-08, tipo de programador de tasa de aprendizaje: lineal, proporción de calentamiento del programador de tasa de aprendizaje: 0.1, pasos de entrenamiento: 576. Resultados de entrenamiento: pérdida de entrenamiento, época, paso, pérdida de validación, precisión. Versiones del framework: Transformers 4.38.2, Pytorch 2.1.0+cu121, Datasets 2.18.0, Tokenizers 0.15.2.

Como usar

El modelo puede ser utilizado a través de los Endpoints de Inferencia para la clasificación de videos. A continuación se muestra un ejemplo de cómo usar el modelo en Markdown:

# Código de ejemplo no disponible directamente en el contenido proporcionado
# Favor de consultar la documentación relevante del modelo en Hugging Face.

Funcionalidades

Clasificación de videos
Transformers
Safetensors
Generado con Trainer

Casos de uso

Clasificación de videos