Principes de base de la détection d’objets interactive

Disponible avec une licence Advanced.

La détection d’objets interactive est utilisée pour trouver les objets d’intérêt à partir de l’imagerie affichée dans une scène.

La détection des objets repose sur un modèle de Deep Learning qui a été entraîné pour détecter des objets spécifiques dans une image, comme les fenêtres ou les portes de bâtiments d’une scène. Les résultats de détection sont enregistrés automatiquement vers une classe d’entités ponctuelles avec un score de confiance, des dimensions d’emprise et le nom d’étiquette comme attributs.

Cet outil exige d’installer des Bibliothèques de Deep Learning avant d’être exécuté.

Licence :

Un niveau de licence ArcGIS Pro Advanced est nécessaire pour exécuter la détection des objets.

Les images ci-dessous illustrent le résultat de la détection des objets renvoyé avec les différentes options de symbologie.

Détection d’objets interactive avec symbologie de boîte

Détection d’objets interactive avec symbologie de points d’emplacement

Détecter les objets dans une vue 3D

L’outil Détection d’objets Détection des objetsest disponible dans le menu déroulant Exploratory 3D Analysis (Analyse 3D exploratoire) du groupe Workflows (Processus) dans l’onglet Analysis (Analyse). Une fois que vous avez sélectionné l’outil Détection d’objets, la fenêtre Exploratory Analysis (Analyse exploratoire) s’affiche. Utilisez la fenêtre Exploratory Analysis (Analyse exploratoire) pour modifier ou accepter les paramètres de détection des objets et définir quelle méthode de caméra détermine le fonctionnement de l’outil pour les résultats de détection. Lors de la première exécution de l’outil, le modèle est chargé et les détections sont calculées. Les exécutions supplémentaires n’exigent pas le rechargement du modèle et seront plus rapides. Le changement de sélection du modèle impliquera à nouveau le temps de chargement initial.

Propriétés de détection des objets

Les propriétés pour la détection des objets sont décrites dans le tableau suivant :

OptionDescription

Model (Modèle)

Paquetage de Deep learning (.dlpk) pour utiliser les objets de détection. Le modèle formé doit être un modèle FasterRCNN. Développez le menu déroulant de saisie Model (Modèle) et cliquez sur Download (Télécharger) pour obtenir automatiquement le modèle préformé Fenêtres et portes Esri. En option, vous pouvez cliquez sur Browse (Parcourir) pour choisir un paquetage de Deep Learning local ou télécharger depuis ArcGIS Online.

Classes

Liste des objets du monde réel à détecter. Cette liste est complétée à partir du fichier .dlpk. L’option par défaut est définie sur All (Tout).

Minimum Confidence Level (Niveau de confiance minimal)

Score de détection minimum auquel une détection doit satisfaire. Les détections avec des scores inférieurs à ce niveau sont ignorées. La valeur par défaut est 0,5.

Maximum Overlap Threshold (Seuil de superposition maximal)

Seuil de l’intersection sur union par rapport à d’autres détections. Si la détection entraîne une superposition, celle affichant le score le plus élevé est considérée comme réellement positive. La valeur par défaut est 0.

Process using GPU (Processus utilisant le GPU)

Utilisez la puissance de traitement du GPU (unité de traitement graphique) plutôt que le CPU (unité de traitement de l’ordinateur). Recommandé si vous avez une excellente carte graphique avec au moins 8 Go dédiés de mémoire GPU.

Feature layer (Couche d’entités)

Nom de la couche d'entités en sortie.

  • Si la couche n’existe pas, une classe d’entités est créée dans la géodatabase par défaut du projet et ajoutée à la carte ou à la scène actuelle.
  • Si la couche est déjà dans la vue et a le schéma requis, les objets récemment détectés sont ajoutés à la classe d’entités existante.
  • Si vous exécutez à nouveau l’outil, lorsque la couche n’est pas dans la carte ou la scène actuelle, une nouvelle classe d’entités au nom unique est créée dans la géodatabase par défaut et ajoutée à la vue.

Description

Description à inclure dans la table attributaire. Les résultats de détections multiples peuvent être enregistrés vers la même couche d’entités et une description peut être utilisée pour distinguer ces multiples détections.

Symbologie

Définissez la forme renvoyée de la couche d’entités en sortie avec la couleur par défaut, doré électron. Les choix en matière de symbologie sont les suivants :

  • Location Point (Point d’emplacement) : un X marquant le point central de l’entité. Il s’agit de l’option par défaut.
  • Vertical Bounding Box (Emprise verticale) (3D uniquement) : une emprise semi-transparente verticale. Utilisez la symbologie d’emprise verticale dans des scènes pour les modèles de Deep Learning qui détectent les objets verticaux, tels que les fenêtres et les portes.
  • Horizontal Bounding Box (Emprise horizontale) (3D uniquement)  : une emprise semi-transparente horizontale. Utilisez la symbologie d’emprise horizontale dans des scènes pour les modèles de Deep Learning qui détectent les objets horizontaux, tels que les piscines.

Si la couche en sortie est déjà dans la vue et si elle a une symbologie personnalisée, sa symbologie n’est pas modifiée lors de l’exécution de l’outil.

Méthodes de détection des objets

Les méthodes pour la détection des objets sont décrites dans le tableau suivant :

MéthodeDescription

Current Camera (Caméra actuelle) Caméra actuelle

Il s’agit de la méthode de création par défaut. Elle utilise la position actuelle de la caméra pour détecter des objets.

Reposition Camera (Repositionner la caméra) Repositionner la caméra (3D uniquement)

Repositionne la caméra sur un point de vue horizontal ou vertical avant de détecter des objets. Configurez la zone du point de vue d’intérêt et utilisez-la pour affiner l’alignement. Il n’est pas recommandé de positionner la caméra sur les objets au loin pour les rapprocher dans la vue.

Mettre à jour les résultats de détection

Pour modifier les résultats de sortie, par exemple, avec une autre valeur de confiance ou en choisissant une autre zone d’intérêt, modifiez ces propriétés et exécutez à nouveau l’outil Détection d’objets. L’objet récemment découvert sera ajouté à la même couche. Sinon, renseignez un nouveau nom et créez une autre couche d’entités en sortie pour comparaison. Il n’est pas recommandé de mettre à jour manuellement les valeurs d’attribut des résultats de détection des objets.

Astuce :

Avant de ré-exécuter l’outil, désactivez la visibilité des couches pour les résultats de détection précédents. Sinon, ces résultats risquent de superposer les objets en cours de détection, ce qui pourrait avoir un impact sur les résultats de détection.

Supprimer les résultats de détection

Les résultats de détection sont ajoutés comme entités ponctuelles. Ainsi, vous pouvez supprimer les entités individuelles avec les processus de mise à jour standard. Sinon, supprimez l’intégralité de la classe d’entités depuis la géodatabase par défaut du projet. La suppression de la couche depuis la fenêtre Contents (Contenu) ne supprime pas automatiquement vos résultats, puisqu’ils existent dans la géodatabase. Si vous exécutez à nouveau l’outil, lorsque la couche n’est pas dans la carte ou la scène actuelle, une nouvelle classe d’entités au nom unique est créée dans la géodatabase par défaut et ajoutée à la vue.

Rubriques connexes