videomae-base-finetuned-ucf101-subset
Benita12
Clasificación de video
Este modelo es una versión ajustada de MCG-NJU/videomae-base en un conjunto de datos desconocido. Logra los siguientes resultados en el conjunto de evaluación: Pérdida: 0.3070, Precisión: 0.8968.
Como usar
El siguiente código muestra cómo usar el modelo:
from transformers import VideoMAEForVideoClassification, VideoMAEProcessor
import torch
model = VideoMAEForVideoClassification.from_pretrained('Benita12/videomae-base-finetuned-ucf101-subset')
processor = VideoMAEProcessor.from_pretrained('MCG-NJU/videomae-base')
# Suponiendo que tiene un conjunto de datos de video llamado 'video_dataset'
inputs = processor(video_dataset, return_tensors='pt')
outputs = model(**inputs)
logits = outputs.logits
predicted_class_id = logits.argmax(-1)
Funcionalidades
- Clasificación de video
- Transformers
- PyTorch
- TensorBoard
- Generado a partir de Trainer
- Endpoints de inferencia
Casos de uso
- Clasificación de vídeos deportivos
- Identificación de acciones en vídeos de seguridad
- Análisis de contenido multimedia