videomae-base-finetuned-EduAction

rpham
Clasificación de video

Este modelo es una versión ajustada de MCG-NJU/videomae-base en un conjunto de datos desconocido. Alcanzó los siguientes resultados en el conjunto de evaluación: pérdida de evaluación: 0.6582, tiempo de preparación del modelo de evaluación: 0.002, precisión de evaluación: 0.8824, tiempo de ejecución de evaluación: 7.3909, muestras por segundo de evaluación: 13.801, pasos por segundo de evaluación: 3.518.

Como usar

Se necesitaría más información para proporcionar un ejemplo de uso específico. Sin embargo, puede utilizar este modelo para tareas de clasificación de videos utilizando las bibliotecas de Hugging Face. A continuación, se presenta un ejemplo general en formato Markdown:

# Uso del modelo

from transformers import AutoModelForVideoClassification, AutoTokenizer

# Cargar el modelo y el tokenizador
model = AutoModelForVideoClassification.from_pretrained("rpham/videomae-base-finetuned-EduAction")
tokenizer = AutoTokenizer.from_pretrained("rpham/videomae-base-finetuned-EduAction")

# Preparar los datos de entrada (por definir)
input_data = ...

# Hacer la inferencia
outputs = model(input_data)

Funcionalidades

Clasificación de videos
Transformers
TensorBoard
Safetensors
Generado a partir de Trainer
Puntos de inferencia

Casos de uso

Clasificación de videos
Descripción automática de contenido educativo
Análisis de video en plataformas educativas