videomae-base-finetuned-subset-0401
Joy28
Clasificación de video
Este modelo es una versión afinada de MCG-NJU/videomae-base en un conjunto de datos desconocido. Alcanza los siguientes resultados en el conjunto de evaluación: Pérdida: 0.6379, Precisión: 0.7824.
Como usar
El siguiente conjunto de hiperparámetros fue utilizado durante el entrenamiento:
- learning_rate: 5e-05
- train_batch_size: 8
- eval_batch_size: 8
- seed: 42
- optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
- lr_scheduler_type: linear
- lr_scheduler_warmup_ratio: 0.1
- training_steps: 2775
Se puede usar el API de Inferencia para Clasificación de Video. Aquí tienes un ejemplo en markdown:
# Cargando el modelo
from transformers import VideoMAEProcessor, VideoMAEForVideoClassification
import torch
processor = VideoMAEProcessor.from_pretrained('Joy28/videomae-base-finetuned-subset-0401')
model = VideoMAEForVideoClassification.from_pretrained('Joy28/videomae-base-finetuned-subset-0401')
# Preparando el video
video = ... # Cargar video desde tu fuente
inputs = processor(video, return_tensors="pt")
# Clasificando el video
with torch.no_grad():
logits = model(**inputs).logits
predicted_class_idx = logits.argmax(-1).item()
decoding_result = model.config.id2label[predicted_class_idx]
print(f"El video se clasifica como: {decoding_result}")
Funcionalidades
- Clasificación de Video
- Transformers
- Safetensors
Casos de uso
- Clasificación de video para determinar el contenido del mismo.
- Análisis de secuencias de video para proyectos de investigación.