ConvNeXT (modelo base)

facebook
Clasificación de imagen

ConvNeXT es un modelo puramente convolucional (ConvNet), inspirado en el diseño de los Vision Transformers, que afirma superarlos en desempeño. Los autores partieron de un ResNet y 'modernizaron' su diseño al tomar el Swin Transformer como inspiración. El modelo ConvNeXT fue entrenado en ImageNet-1k a una resolución de 224x224. Fue presentado en el artículo 'A ConvNet for the 2020s' de Liu et al. y se lanzó por primera vez en este repositorio.

Como usar

Aquí se muestra cómo usar este modelo para clasificar una imagen del conjunto de datos COCO 2017 en una de las 1,000 clases de ImageNet:

from transformers import ConvNextImageProcessor, ConvNextForImageClassification
import torch
from datasets import load_dataset

dataset = load_dataset("huggingface/cats-image")
image = dataset["test"]["image"][0]

processor = ConvNextImageProcessor.from_pretrained("facebook/convnext-base-224")
model = ConvNextForImageClassification.from_pretrained("facebook/convnext-base-224")

inputs = processor(image, return_tensors="pt")

with torch.no_grad():
    logits = model(**inputs).logits

# el modelo predice una de las 1000 clases de ImageNet
predicted_label = logits.argmax(-1).item()
print(model.config.id2label[predicted_label])

Para más ejemplos de código, consulte la documentación.

Funcionalidades

Modelo convolucional puro (ConvNet)
Inspirado en el diseño de los Vision Transformers
Entrenado en ImageNet-1k
Resolución de 224x224

Casos de uso

Clasificación de imágenes
Buscar versiones ajustadas del modelo para tareas específicas