trpakov/vit-face-expression
El modelo vit-face-expression es un Vision Transformer afinado para la tarea de reconocimiento de emociones faciales. Está entrenado en el conjunto de datos FER2013, que consiste en imágenes faciales categorizadas en siete diferentes emociones: Enfadado, Asco, Miedo, Feliz, Triste, Sorpresa, Neutral. Las imágenes de entrada se preprocesan antes de ser alimentadas al modelo. Los pasos de preprocesamiento incluyen: Redimensionamiento, Normalización y Aumento de Datos. La precisión en el conjunto de validación es de 0.7113 y en el conjunto de prueba es de 0.7116.
Como usar
Para usar este modelo, el usuario puede arrastrar un archivo de imagen o navegar desde su dispositivo para clasificar imágenes. Aquí hay un ejemplo de código en Markdown para usar el modelo:
# Código de uso no proporcionado en el HTML original.```
Funcionalidades
- Clasificación de imágenes
- Transformadores
- PyTorch
- ONNX
- Safetensors
Casos de uso
- Reconocimiento de emociones faciales
- Aplicaciones de inteligencia artificial en salud mental
- Clasificación de imágenes
- Interacción humano-computadora