ViVitTrained-ABAW

Sapezb
Clasificación de video

ViVitTrained-ABAW es una versión afinada del modelo google/vivit-b-16x2-kinetics400 en un conjunto de datos desconocido. Este es un modelo de clasificación de videos que se basa en la arquitectura Transformers. El modelo ha sido entrenado y evaluado utilizando TensorBoard y Safetensors, y se ha generado a partir del entrenador.

Como usar

Para usar este modelo, necesitarás cargar el modelo preentrenado y aplicar la inferencia de clasificación de video.

from transformers import AutoModelForVideoClassification, AutoTokenizer

model = AutoModelForVideoClassification.from_pretrained('Sapezb/ViVitTrained-ABAW')
tokenizer = AutoTokenizer.from_pretrained('Sapezb/ViVitTrained-ABAW')

# Código para realizar la clasificación de video

Actualmente, este modelo no tiene suficiente actividad para ser desplegado en la API de inferencia (sin servidor). Para desplegarlo, puedes aumentar su visibilidad social y revisar más tarde, o desplegarlo en Endpoints de inferencia (dedicados).

Funcionalidades

Clasificación de videos
Basado en la arquitectura Transformers
Entrenado utilizando TensorBoard y Safetensors

Casos de uso

Clasificación de videos en diversos contextos
Aplicaciones que requieren análisis y categorización de contenido audiovisual