trpakov/vit-face-expression

trpakov
Clasificación de imagen

El modelo vit-face-expression es un Vision Transformer afinado para la tarea de reconocimiento de emociones faciales. Está entrenado en el conjunto de datos FER2013, que consiste en imágenes faciales categorizadas en siete diferentes emociones: Enfadado, Asco, Miedo, Feliz, Triste, Sorpresa, Neutral. Las imágenes de entrada se preprocesan antes de ser alimentadas al modelo. Los pasos de preprocesamiento incluyen: Redimensionamiento, Normalización y Aumento de Datos. La precisión en el conjunto de validación es de 0.7113 y en el conjunto de prueba es de 0.7116.

Como usar

Para usar este modelo, el usuario puede arrastrar un archivo de imagen o navegar desde su dispositivo para clasificar imágenes. Aquí hay un ejemplo de código en Markdown para usar el modelo:

# Código de uso no proporcionado en el HTML original.```

Funcionalidades

Clasificación de imágenes
Transformadores
PyTorch
ONNX
Safetensors

Casos de uso

Reconocimiento de emociones faciales
Aplicaciones de inteligencia artificial en salud mental
Clasificación de imágenes
Interacción humano-computadora