koya1/videomae-base-finetuned-ucf101-subset

koya1
Clasificación de video

Este modelo es una versión ajustada de MCG-NJU/videomae-base en un conjunto de datos desconocido. Logra los siguientes resultados en el conjunto de evaluación: Pérdida: 0.8124, Precisión: 0.8324.

Como usar

Este modelo está listo para ser utilizado para tareas de clasificación de videos. Aquí tienes un ejemplo del uso del modelo:

import torch
from transformers import VideoMAEForVideoClassification, VideoMAEFeatureExtractor

model = VideoMAEForVideoClassification.from_pretrained('koya1/videomae-base-finetuned-ucf101-subset')
feature_extractor = VideoMAEFeatureExtractor.from_pretrained('koya1/videomae-base-finetuned-ucf101-subset')

# Cargando un video
video = ...  # Asegúrate de que es un video tensor adecuado

# Extrayendo características
tokenized_video = feature_extractor(video, return_tensors='pt')

# Realizando una clasificación
outputs = model(**tokenized_video)

# Resultados
logits = outputs.logits
predicciones = torch.argmax(logits, dim=-1)
print('Predicciones:', predicciones)

Funcionalidades

Clasificación de videos
Transformers
PyTorch
TensorBoard
Generado con Trainer
Puntos finales de inferencia

Casos de uso

Clasificación de actividades en videos
Análisis de contenido de videos
Automatización de etiquetas de videos