MobileNet V2

Matthijs
Clasificación de imagen

El modelo MobileNet V2 preentrenado en ImageNet-1k a una resolución de 224x224. Fue introducido en MobileNetV2: Inverted Residuals and Linear Bottlenecks por Mark Sandler, Andrew Howard, Menglong Zhu, Andrey Zhmoginov y Liang-Chieh Chen. Fue lanzado por primera vez en este repositorio. Los MobileNets son pequeños, de baja latencia y bajo consumo, parametrizados para cumplir con las limitaciones de recursos de una variedad de casos de uso. Se pueden utilizar para clasificación, detección, embeddings y segmentación, similar a otros modelos a gran escala populares como Inception. Los MobileNets pueden ejecutarse de manera eficiente en dispositivos móviles. MobileNets equilibran entre latencia, tamaño y precisión mientras se comparan favorablemente con modelos populares de la literatura.

Como usar

from transformers import MobileNetV2FeatureExtractor, MobileNetV2ForImageClassification
from PIL import Image
import requests

url = "http://images.cocodataset.org/val2017/000000039769.jpg"
image = Image.open(requests.get(url, stream=True).raw)

feature_extractor = MobileNetV2FeatureExtractor.from_pretrained("Matthijs/mobilenet_v2_1.0_224")
model = MobileNetV2ForImageClassification.from_pretrained("Matthijs/mobilenet_v2_1.0_224")

inputs = feature_extractor(images=image, return_tensors="pt")

outputs = model(**inputs)
logits = outputs.logits

# el modelo predice una de las 1000 clases de ImageNet
predicted_class_idx = logits.argmax(-1).item()
print("Clase predicha:", model.config.id2label[predicted_class_idx])

Funcionalidades

Clasificación de imágenes
Transformadores
PyTorch
Core ML
imagenet-1k
mobilenet_v2
visión

Casos de uso

Clasificación de imágenes
Clasificación especificamente con COCO 2017 dataset