videomae-base-finetuned-EduAction
rpham
Clasificación de video
Este modelo es una versión ajustada de MCG-NJU/videomae-base en un conjunto de datos desconocido. Alcanzó los siguientes resultados en el conjunto de evaluación: pérdida de evaluación: 0.6582, tiempo de preparación del modelo de evaluación: 0.002, precisión de evaluación: 0.8824, tiempo de ejecución de evaluación: 7.3909, muestras por segundo de evaluación: 13.801, pasos por segundo de evaluación: 3.518.
Como usar
Se necesitaría más información para proporcionar un ejemplo de uso específico. Sin embargo, puede utilizar este modelo para tareas de clasificación de videos utilizando las bibliotecas de Hugging Face. A continuación, se presenta un ejemplo general en formato Markdown:
# Uso del modelo
from transformers import AutoModelForVideoClassification, AutoTokenizer
# Cargar el modelo y el tokenizador
model = AutoModelForVideoClassification.from_pretrained("rpham/videomae-base-finetuned-EduAction")
tokenizer = AutoTokenizer.from_pretrained("rpham/videomae-base-finetuned-EduAction")
# Preparar los datos de entrada (por definir)
input_data = ...
# Hacer la inferencia
outputs = model(input_data)
Funcionalidades
- Clasificación de videos
- Transformers
- TensorBoard
- Safetensors
- Generado a partir de Trainer
- Puntos de inferencia
Casos de uso
- Clasificación de videos
- Descripción automática de contenido educativo
- Análisis de video en plataformas educativas