ViVitTrained-ABAW
Sapezb
Clasificación de video
ViVitTrained-ABAW es una versión afinada del modelo google/vivit-b-16x2-kinetics400 en un conjunto de datos desconocido. Este es un modelo de clasificación de videos que se basa en la arquitectura Transformers. El modelo ha sido entrenado y evaluado utilizando TensorBoard y Safetensors, y se ha generado a partir del entrenador.
Como usar
Para usar este modelo, necesitarás cargar el modelo preentrenado y aplicar la inferencia de clasificación de video.
from transformers import AutoModelForVideoClassification, AutoTokenizer
model = AutoModelForVideoClassification.from_pretrained('Sapezb/ViVitTrained-ABAW')
tokenizer = AutoTokenizer.from_pretrained('Sapezb/ViVitTrained-ABAW')
# Código para realizar la clasificación de video
Actualmente, este modelo no tiene suficiente actividad para ser desplegado en la API de inferencia (sin servidor). Para desplegarlo, puedes aumentar su visibilidad social y revisar más tarde, o desplegarlo en Endpoints de inferencia (dedicados).
Funcionalidades
- Clasificación de videos
- Basado en la arquitectura Transformers
- Entrenado utilizando TensorBoard y Safetensors
Casos de uso
- Clasificación de videos en diversos contextos
- Aplicaciones que requieren análisis y categorización de contenido audiovisual