videomae-base-finetuned-subset-0401

Joy28
Clasificación de video

Este modelo es una versión afinada de MCG-NJU/videomae-base en un conjunto de datos desconocido. Alcanza los siguientes resultados en el conjunto de evaluación: Pérdida: 0.6379, Precisión: 0.7824.

Como usar

El siguiente conjunto de hiperparámetros fue utilizado durante el entrenamiento:

  • learning_rate: 5e-05
  • train_batch_size: 8
  • eval_batch_size: 8
  • seed: 42
  • optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
  • lr_scheduler_type: linear
  • lr_scheduler_warmup_ratio: 0.1
  • training_steps: 2775

Se puede usar el API de Inferencia para Clasificación de Video. Aquí tienes un ejemplo en markdown:

# Cargando el modelo
from transformers import VideoMAEProcessor, VideoMAEForVideoClassification
import torch

processor = VideoMAEProcessor.from_pretrained('Joy28/videomae-base-finetuned-subset-0401')
model = VideoMAEForVideoClassification.from_pretrained('Joy28/videomae-base-finetuned-subset-0401')

# Preparando el video
video = ...  # Cargar video desde tu fuente
inputs = processor(video, return_tensors="pt")

# Clasificando el video
with torch.no_grad():
    logits = model(**inputs).logits
    predicted_class_idx = logits.argmax(-1).item()

decoding_result = model.config.id2label[predicted_class_idx]
print(f"El video se clasifica como: {decoding_result}")

Funcionalidades

Clasificación de Video
Transformers
Safetensors

Casos de uso

Clasificación de video para determinar el contenido del mismo.
Análisis de secuencias de video para proyectos de investigación.