touchtech/fashion-images-gender-age-vit-large-patch16-224-in21k-v3
Este modelo es una versión ajustada de google/vit-large-patch16-224-in21k en el conjunto de datos touchtech/fashion-images-gender-age. Alcanza los siguientes resultados en el conjunto de evaluación: Pérdida: 0.0223, Precisión: 0.9960.
Como usar
Para usar este modelo, puede integrar el siguiente código en su proyecto: ```python
from transformers import AutoFeatureExtractor, AutoModelForImageClassification
from PIL import Image
import requests
extractor = AutoFeatureExtractor.from_pretrained('touchtech/fashion-images-gender-age-vit-large-patch16-224-in21k-v3')
model = AutoModelForImageClassification.from_pretrained('touchtech/fashion-images-gender-age-vit-large-patch16-224-in21k-v3')
url = 'URL_DE_SU_IMAGEN'
image = Image.open(requests.get(url, stream=True).raw)
inputs = extractor(images=image, return_tensors='pt')
outputs = model(**inputs)
Procesar la salida según su uso
Funcionalidades
- Clasificación de imágenes
- Transformadores
- PyTorch
- Vision Transformer (ViT)
Casos de uso
- Clasificación de género en imágenes de moda
- Clasificación de edad en imágenes de moda