videomae-base-finetuned-ucf101-subset
sahild23d23e23re23r
Clasificación de video
Este modelo es una versión afinada de MCG-NJU/videomae-base en un conjunto de datos desconocido. Logra los siguientes resultados en el conjunto de evaluación: Pérdida: 1.4876 Precisión: 0.3623.
Como usar
from transformers import VideoMAEFeatureExtractor, VideoMAEForVideoClassification
import torch
model = VideoMAEForVideoClassification.from_pretrained('sahild23d23e23re23r/videomae-base-finetuned-ucf101-subset')
feature_extractor = VideoMAEFeatureExtractor.from_pretrained('sahild23d23e23re23r/videomae-base-finetuned-ucf101-subset')
# Suponiendo que tienes el video en forma de fotogramas
frames = [...]
inputs = feature_extractor(frames, return_tensors="pt")
with torch.no_grad():
logits = model(**inputs).logits
predicted_label = logits.argmax(-1).item()
print('Etiqueta predicha:', predicted_label)
Parámetros de entrenamiento
- learning_rate: 5e-05
- train_batch_size: 8
- eval_batch_size: 8
- seed: 42
- optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
- lr_scheduler_type: linear
- lr_scheduler_warmup_ratio: 0.1
- training_steps: 28
Versiones del framework
- Transformers 4.34.0
- Pytorch 2.1.0
- Datasets 2.12.0
- Tokenizers 0.14.1
Funcionalidades
- Clasificación de Video
- Transformers
- PyTorch
- Generado a partir de Trainer
- Puntos de Inferencia
Casos de uso
- Clasificación de acciones en videos
- Análisis de videos para detección de eventos
- Etiqueta automática de contenido de video