efficientvit_b2.r256_in1k

timm
Clasificación de imagen

Modelo de clasificación de imágenes EfficientViT (MIT). Entrenado en ImageNet-1k por los autores del artículo. EfficientViT ofrece atención lineal multi-escala para la predicción densa de alta resolución.

Como usar

Clasificación de Imágenes

from urllib.request import urlopen
from PIL import Image
import timm

img = Image.open(urlopen(
'https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/beignets-task-guide.png'
))

model = timm.create_model('efficientvit_b2.r256_in1k', pretrained=True)
model = model.eval()

# obtener transformaciones específicas del modelo (normalización, cambio de tamaño)
data_config = timm.data.resolve_model_data_config(model)
transforms = timm.data.create_transform(**data_config, is_training=False)

output = model(transforms(img).unsqueeze(0)) # agregar una dimensión para crear un lote de 1

top5_probabilities, top5_class_indices = torch.topk(output.softmax(dim=1) * 100, k=5)

Extracción de Mapas de Características

from urllib.request import urlopen
from PIL import Image
import timm

img = Image.open(urlopen(
'https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/beignets-task-guide.png'
))

model = timm.create_model(
'efficientvit_b2.r256_in1k',
pretrained=True,
features_only=True,
)
model = model.eval()

# obtener transformaciones específicas del modelo (normalización, cambio de tamaño)
data_config = timm.data.resolve_model_data_config(model)
transforms = timm.data.create_transform(**data_config, is_training=False)

output = model(transforms(img).unsqueeze(0)) # agregar una dimensión para crear un lote de 1

for o in output:
# imprimir la forma de cada mapa de características en la salida
# ejemplo:
#  torch.Size([1, 48, 64, 64])
#  torch.Size([1, 96, 32, 32])
#  torch.Size([1, 192, 16, 16])
#  torch.Size([1, 384, 8, 8])

print(o.shape)

Embeddings de Imágenes

from urllib.request import urlopen
from PIL import Image
import timm

img = Image.open(urlopen(
'https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/beignets-task-guide.png'
))

model = timm.create_model(
'efficientvit_b2.r256_in1k',
pretrained=True,
num_classes=0, # eliminar la clase clasificadora nn.Linear
)
model = model.eval()

# obtener transformaciones específicas del modelo (normalización, cambio de tamaño)
data_config = timm.data.resolve_model_data_config(model)
transforms = timm.data.create_transform(**data_config, is_training=False)

output = model(transforms(img).unsqueeze(0)) # la salida es un tensor con forma (tamaño_del_lote, num_features)

# o equivalentemente (sin necesidad de configurar num_classes=0)

output = model.forward_features(transforms(img).unsqueeze(0))
# la salida no se agrupa, es un tensor con forma (1, 384, 8, 8)

output = model.forward_head(output, pre_logits=True)
# la salida es un tensor con forma (1, num_features)

Cita

@article{cai2022efficientvit,
title={EfficientViT: Enhanced linear attention for high-resolution low-computation visual recognition},
author={Cai, Han y Gan, Chuang y Han, Song},
journal={arXiv preprint arXiv:2205.14756},
year={2022}
}

Funcionalidades

Clasificación de Imágenes
Extracción de Mapas de Características
Embeddings de Imágenes

Casos de uso

Clasificación de imágenes de alta resolución con baja computación
Extracción de características para modelos de características
Embeddings de imágenes para tareas de visión por computadora