videomae-base-finetuned-ucf101-subset

Benita12
Clasificación de video

Este modelo es una versión ajustada de MCG-NJU/videomae-base en un conjunto de datos desconocido. Logra los siguientes resultados en el conjunto de evaluación: Pérdida: 0.3070, Precisión: 0.8968.

Como usar

El siguiente código muestra cómo usar el modelo:

from transformers import VideoMAEForVideoClassification, VideoMAEProcessor
import torch

model = VideoMAEForVideoClassification.from_pretrained('Benita12/videomae-base-finetuned-ucf101-subset')
processor = VideoMAEProcessor.from_pretrained('MCG-NJU/videomae-base')

# Suponiendo que tiene un conjunto de datos de video llamado 'video_dataset'
inputs = processor(video_dataset, return_tensors='pt')
outputs = model(**inputs)
logits = outputs.logits
predicted_class_id = logits.argmax(-1)

Funcionalidades

Clasificación de video
Transformers
PyTorch
TensorBoard
Generado a partir de Trainer
Endpoints de inferencia

Casos de uso

Clasificación de vídeos deportivos
Identificación de acciones en vídeos de seguridad
Análisis de contenido multimedia