yolos-small-rego-plates-detection
El modelo YOLOS original fue ajustado en COCO 2017 para la detección de objetos (118k imágenes anotadas). Fue introducido en el paper 'You Only Look at One Sequence: Rethinking Transformer in Vision through Object Detection' por Fang et al. y lanzado primero en este repositorio. Este modelo fue ajustado adicionalmente en el conjunto de datos de matrículas de Kaggle. El conjunto de datos consta de 735 imágenes con anotaciones categorizadas como 'vehículo' y 'matrícula'. El modelo fue entrenado durante 200 épocas en una sola GPU usando Google Colab. YOLOS es un Transformer de visión (ViT) entrenado utilizando la pérdida de DETR. A pesar de su simplicidad, un modelo YOLOS de tamaño base es capaz de alcanzar 42 AP en la validación de COCO 2017 (similar a DETR y marcos más complejos como Faster R-CNN).
Como usar
Aquí está cómo usar este modelo:
from transformers import YolosFeatureExtractor, YolosForObjectDetection
from PIL import Image
import requests
url = 'https://drive.google.com/uc?id=1p9wJIqRz3W50e2f_A0D8ftla8hoXz4T5'
image = Image.open(requests.get(url, stream=True).raw)
feature_extractor = YolosFeatureExtractor.from_pretrained('nickmuchi/yolos-small-rego-plates-detection')
model = YolosForObjectDetection.from_pretrained('nickmuchi/yolos-small-rego-plates-detection')
inputs = feature_extractor(images=image, return_tensors='pt')
outputs = model(**inputs)
# el modelo predice las cajas delimitadoras y las clases correspondientes de detección de máscaras faciales
logits = outputs.logits
bboxes = outputs.pred_boxes
Actualmente, tanto el extractor de características como el modelo soportan PyTorch.
Funcionalidades
- Detección de objetos
- Transformers
- TensorFlow
- PyTorch
- Safetensors
- coco
- detección de matrículas
- detección de vehículos
- Puntos finales de inferencia
Casos de uso
- Detección de matrículas
- Detección de vehículos
- Análisis de vídeos de tráfico
- Aplicación en sistemas de seguridad