videomae-base-finetuned-kinetics-finetuned-ucf101-subset
Este modelo es una versión ajustada de MCG-NJU/videomae-base-finetuned-kinetics en un conjunto de datos desconocido. El modelo está diseñado para la clasificación de videos y logra los siguientes resultados en el conjunto de evaluación: - Pérdida: 0.1277 - Precisión: 1.0 Puede usar este modelo para la clasificación de videos con Transformadores y TensorBoard. Los hiperparámetros utilizados durante el entrenamiento fueron learning_rate: 5e-05, tamaño batch de entrenamiento: 4, tamaño batch de evaluación: 4, seed: 42, optimizador: Adam con betas=(0.9,0.999) y epsilon=1e-08, tipo de programador de tasa de aprendizaje: lineal, relación de calentamiento del programador de tasa de aprendizaje: 0.1, pasos de entrenamiento: 300. Las versiones del marco utilizadas fueron Transformers 4.40.1, Pytorch 2.2.1+cu121, Datasets 2.19.0 y Tokenizers 0.19.1.
Como usar
Para usar este modelo necesitas cargarlo en tu entorno de trabajo, asegúrate de tener instaladas las dependencias necesarias como Transformers y Pytorch. Aquí hay un ejemplo de cómo cargar el modelo:
from transformers import VideoMAEForVideoClassification, AutoTokenizer
model = VideoMAEForVideoClassification.from_pretrained('Abdullah1/videomae-base-finetuned-kinetics-finetuned-ucf101-subset')
tokenizer = AutoTokenizer.from_pretrained('Abdullah1/videomae-base-finetuned-kinetics-finetuned-ucf101-subset')
Después de cargar el modelo, puedes usarlo para clasificar videos de la siguiente manera:
inputs = tokenizer(video_frames, return_tensors='pt')
outputs = model(**inputs)
logits = outputs.logits
Para obtener los resultados, puedes usar las funciones de post-procesamiento según tu necesidad.
Funcionalidades
- Clasificación de videos
- Basado en Transformadores
- Soporte para TensorBoard
- Uso de Safetensors
Casos de uso
- Clasificación de videos para deportes
- Análisis de contenido de medios
- Sistemas de vigilancia inteligente
- Etiquetado de videos para contenido pedagógico