convnext_xxlarge.clip_laion2b_soup_ft_in1k
timm
Clasificación de imagen
Un modelo de clasificación de imágenes ConvNeXt. Pesos de la torre de imágenes CLIP preentrenados en OpenCLIP en LAION y ajustados en ImageNet-1k en timm por Ross Wightman. Para más detalles sobre el preentrenamiento, consulte las tarjetas de modelo OpenCLIP relacionadas.
Como usar
Clasificación de imágenes
from urllib.request import urlopen
from PIL import Image
import timm
img = Image.open(urlopen(
'https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/beignets-task-guide.png'
))
model = timm.create_model('convnext_xxlarge.clip_laion2b_soup_ft_in1k', pretrained=True)
model = model.eval()
# obtener transformaciones específicas del modelo (normalización, cambio de tamaño)
data_config = timm.data.resolve_model_data_config(model)
transforms = timm.data.create_transform(**data_config, is_training=False)
output = model(transforms(img).unsqueeze(0)) # desahogar imagen única en lote de 1
top5_probabilities, top5_class_indices = torch.topk(output.softmax(dim=1) * 100, k=5)
Extracción de mapas de características
from urllib.request import urlopen
from PIL import Image
import timm
img = Image.open(urlopen(
'https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/beignets-task-guide.png'
))
model = timm.create_model(
'convnext_xxlarge.clip_laion2b_soup_ft_in1k',
pretrained=True,
features_only=True,
)
model = model.eval()
# obtener transformaciones específicas del modelo (normalización, cambio de tamaño)
data_config = timm.data.resolve_model_data_config(model)
transforms = timm.data.create_transform(**data_config, is_training=False)
output = model(transforms(img).unsqueeze(0)) # desahogar imagen única en lote de 1
for o in output:
# imprimir forma de cada mapa de características en la salida
# por ejemplo:
# torch.Size([1, 384, 64, 64])
# torch.Size([1, 768, 32, 32])
# torch.Size([1, 1536, 16, 16])
# torch.Size([1, 3072, 8, 8])
print(o.shape)
Incrustaciones de imágenes
from urllib.request import urlopen
from PIL import Image
import timm
img = Image.open(urlopen(
'https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/beignets-task-guide.png'
))
model = timm.create_model(
'convnext_xxlarge.clip_laion2b_soup_ft_in1k',
pretrained=True,
num_classes=0, # eliminar clasificador nn.Linear
)
model = model.eval()
# obtener transformaciones específicas del modelo (normalización, cambio de tamaño)
data_config = timm.data.resolve_model_data_config(model)
transforms = timm.data.create_transform(**data_config, is_training=False)
output = model(transforms(img).unsqueeze(0)) # la salida es un tensor (batch_size, num_features)
# o equivalentemente (sin necesidad de establecer num_classes=0)
output = model.forward_features(transforms(img).unsqueeze(0))
# la salida no está agrupada, es un tensor (1, 3072, 8, 8)
output = model.forward_head(output, pre_logits=True)
# la salida es un tensor (1, num_features)
Funcionalidades
- Clasificación de imágenes
- Extracción de mapas de características
- Incrustaciones de imágenes
Casos de uso
- Clasificación de imágenes en aplicaciones de visión por computadora
- Extracción de características de imágenes para análisis más detallado
- Generación de incrustaciones de imágenes para tareas de aprendizaje automático