law-game-replace-finetune
Este modelo es una versión ajustada finamente de PekingU/rtdetr_r50vd_coco_o365 en un conjunto de datos desconocido. Alcanza los siguientes resultados en el conjunto de evaluación: Pérdida: 5.6852 Mapa: 0.8547 Mapa 50: 0.9219 Mapa 75: 0.8855 Mapa Pequeño: 0.6003 Mapa Mediano: 0.6465 Mapa Grande: 0.9074 Mar 1: 0.652 Mar 10: 0.9364 Mar 100: 0.9452 Mar Pequeño: 0.779 Mar Mediano: 0.924 Mar Grande: 0.9818 Mapa Evidencia: -1.0 Mar 100 Evidencia: -1.0 Mapa Ambulancia: 1.0 Mar 100 Ambulancia: 1.0 Mapa Objetivo Artificial: 0.8084 Mar 100 Objetivo Artificial: 0.8727 Mapa Cartucho: 0.9022 Mar 100 Cartucho: 0.9681 Mapa Pistola: 0.7068 Mar 100 Pistola: 0.9667 Mapa Cuchillo: 0.7732 Mar 100 Cuchillo: 0.9111 Mapa Policía: 0.9573 Mar 100 Policía: 0.9818 Mapa Tráfico: 0.835 Mar 100 Tráfico: 0.9162
Como usar
Información necesaria
Los siguientes hiperparámetros se utilizaron durante el entrenamiento:
Tasa de aprendizaje: 5e-05
Tamaño del batch de entrenamiento: 16
Tamaño del batch de evaluación: 8
Semilla: 42
Optimizador: Adam con betas=(0.9,0.999) y epsilon=1e-08
Tipo de programador de tasa de aprendizaje: lineal
Pasos de calentamiento del programador de tasa de aprendizaje: 300
Número de épocas: 50
Funcionalidades
- Detección de objetos
- Transformadores
- Safetensors
- Generado con Trainer Inference Endpoints
Casos de uso
- Detección de objetos en imágenes
- Análisis de vigilancia y seguridad
- Aplicaciones policiales
- Análisis de tráfico