koya1/videomae-base-finetuned-ucf101-subset
koya1
Clasificación de video
Este modelo es una versión ajustada de MCG-NJU/videomae-base en un conjunto de datos desconocido. Logra los siguientes resultados en el conjunto de evaluación: Pérdida: 0.8124, Precisión: 0.8324.
Como usar
Este modelo está listo para ser utilizado para tareas de clasificación de videos. Aquí tienes un ejemplo del uso del modelo:
import torch
from transformers import VideoMAEForVideoClassification, VideoMAEFeatureExtractor
model = VideoMAEForVideoClassification.from_pretrained('koya1/videomae-base-finetuned-ucf101-subset')
feature_extractor = VideoMAEFeatureExtractor.from_pretrained('koya1/videomae-base-finetuned-ucf101-subset')
# Cargando un video
video = ... # Asegúrate de que es un video tensor adecuado
# Extrayendo características
tokenized_video = feature_extractor(video, return_tensors='pt')
# Realizando una clasificación
outputs = model(**tokenized_video)
# Resultados
logits = outputs.logits
predicciones = torch.argmax(logits, dim=-1)
print('Predicciones:', predicciones)
Funcionalidades
- Clasificación de videos
- Transformers
- PyTorch
- TensorBoard
- Generado con Trainer
- Puntos finales de inferencia
Casos de uso
- Clasificación de actividades en videos
- Análisis de contenido de videos
- Automatización de etiquetas de videos