MobileNet V2
El modelo MobileNet V2 preentrenado en ImageNet-1k a una resolución de 224x224. Fue introducido en MobileNetV2: Inverted Residuals and Linear Bottlenecks por Mark Sandler, Andrew Howard, Menglong Zhu, Andrey Zhmoginov y Liang-Chieh Chen. Fue lanzado por primera vez en este repositorio. Los MobileNets son pequeños, de baja latencia y bajo consumo, parametrizados para cumplir con las limitaciones de recursos de una variedad de casos de uso. Se pueden utilizar para clasificación, detección, embeddings y segmentación, similar a otros modelos a gran escala populares como Inception. Los MobileNets pueden ejecutarse de manera eficiente en dispositivos móviles. MobileNets equilibran entre latencia, tamaño y precisión mientras se comparan favorablemente con modelos populares de la literatura.
Como usar
from transformers import MobileNetV2FeatureExtractor, MobileNetV2ForImageClassification
from PIL import Image
import requests
url = "http://images.cocodataset.org/val2017/000000039769.jpg"
image = Image.open(requests.get(url, stream=True).raw)
feature_extractor = MobileNetV2FeatureExtractor.from_pretrained("Matthijs/mobilenet_v2_1.0_224")
model = MobileNetV2ForImageClassification.from_pretrained("Matthijs/mobilenet_v2_1.0_224")
inputs = feature_extractor(images=image, return_tensors="pt")
outputs = model(**inputs)
logits = outputs.logits
# el modelo predice una de las 1000 clases de ImageNet
predicted_class_idx = logits.argmax(-1).item()
print("Clase predicha:", model.config.id2label[predicted_class_idx])
Funcionalidades
- Clasificación de imágenes
- Transformadores
- PyTorch
- Core ML
- imagenet-1k
- mobilenet_v2
- visión
Casos de uso
- Clasificación de imágenes
- Clasificación especificamente con COCO 2017 dataset