Disponible avec une licence Advanced.
Disponible avec une licence Image Analyst.
La détection d’objets interactive est utilisée pour trouver les objets d’intérêt à partir de l’imagerie affichée dans une scène.
La détection des objets repose sur un modèle de Deep Learning qui a été entraîné pour détecter des objets spécifiques dans une image, comme les fenêtres ou les portes de bâtiments d’une scène. Les résultats de détection sont enregistrés automatiquement vers une classe d’entités ponctuelles avec un score de confiance, des dimensions d’emprise et le nom d’étiquette comme attributs.
Cet outil exige d’installer des Bibliothèques de Deep Learning avant d’être exécuté.
Licence :
L’outil interactif de détection d’objets nécessite une licence ArcGIS Pro Advanced ou l’extension ArcGIS Image Analyst.
Les images ci-dessous illustrent le résultat de la détection des objets renvoyé avec les différentes options de symbologie.
Détecter les objets dans une vue 3D
L’outil Object Detection (Détection d’objets) est disponible dans le menu déroulant Exploratory 3D Analysis (Analyse 3D exploratoire) du groupe Workflows (Processus) dans l’onglet Analysis (Analyse). Une fois que vous avez sélectionné l’outil Détection d’objets, la fenêtre Exploratory Analysis (Analyse exploratoire) s’affiche. Utilisez la fenêtre Exploratory Analysis (Analyse exploratoire) pour modifier ou accepter les paramètres de détection des objets et définir quelle méthode de caméra détermine le fonctionnement de l’outil pour les résultats de détection. Lors de la première exécution de l’outil, le modèle est chargé et les détections sont calculées. Les exécutions supplémentaires n’exigent pas le rechargement du modèle et seront plus rapides. Le changement de sélection du modèle impliquera à nouveau le temps de chargement initial.
Propriétés de détection des objets
Les propriétés pour la détection des objets sont décrites dans le tableau suivant :
Option | Description |
---|---|
Modèle | Paquetage de Deep Learning (.dlpk) à utiliser pour la détection d’objets. Parmi les types de modèles pris en charge figurent FasterRCNN, YOLOv3, Single Shot Detector (SSD) et RetinaNet. Développez le menu déroulant de saisie Model (Modèle) et cliquez sur Download (Télécharger) pour obtenir automatiquement le modèle préformé Fenêtres et portes Esri. Cliquez éventuellement sur Browse (Parcourir) pour choisir un paquetage de Deep Learning local ou télécharger depuis ArcGIS Online. |
Classes | Liste des objets du monde réel à détecter. Cette liste est renseignée à partir du fichier .dlpk. L’option par défaut est définie sur All (Tout). |
Minimum Confidence Level (Niveau de confiance minimal) | Score de détection minimum auquel une détection doit satisfaire. Les détections avec des scores inférieurs à ce niveau sont ignorées. La valeur par défaut est 0,5. |
Maximum Overlap Threshold (Seuil de superposition maximal) | Seuil de l’intersection sur union par rapport à d’autres détections. Si la détection entraîne une superposition, celle affichant le score le plus élevé est considérée comme réellement positive. La valeur par défaut est 0. |
Process using GPU (Processus utilisant le GPU) | Utilisez la puissance de traitement du GPU (unité de traitement graphique) plutôt que le CPU (unité de traitement de l’ordinateur). Recommandé si vous avez une excellente carte graphique avec au moins 8 Go dédiés de mémoire GPU. |
Couche d'entités | Nom de la couche d'entités en sortie.
|
Description | Description à inclure dans la table attributaire. Les résultats de détections multiples peuvent être enregistrés vers la même couche d’entités et une description peut être utilisée pour distinguer ces multiples détections. |
Symbologie | Définissez la forme renvoyée de la couche d’entités en sortie avec la couleur par défaut, doré électron. Les choix en matière de symbologie sont les suivants :
Si la couche en sortie est déjà dans la vue et si elle a une symbologie personnalisée, sa symbologie n’est pas modifiée lors de l’exécution de l’outil. |
Distance | Définissez la distance maximale de la caméra dans laquelle les résultats sont conservés. Tout ce qui se trouve au-delà de la profondeur définie est ignoré. |
Largeur | Définissez les valeurs de largeur minimale et maximale pour la taille du résultat renvoyé attendu. |
Hauteur | Définissez les valeurs de hauteur minimale et maximale pour la taille du résultat renvoyé attendu. |
Remarque :
Les paramètres de distance, de largeur et de hauteur se trouvent dans la section Filter Results (Filtrer les résultats), que vous devrez peut-être développer pour pouvoir définir ces valeurs.Méthodes de détection des objets
Les méthodes pour la détection des objets sont décrites dans le tableau suivant :
Méthode | Description |
---|---|
Il s’agit de la méthode de création par défaut. Elle utilise la position actuelle de la caméra pour détecter des objets. | |
Reposition Camera (Repositionner la caméra) (3D uniquement) | Repositionne la caméra sur un point de vue horizontal ou vertical avant de détecter des objets. Configurez la zone du point de vue d’intérêt et utilisez-la pour affiner l’alignement. Il n’est pas recommandé de positionner la caméra sur les objets au loin pour les rapprocher dans la vue. |
Mettre à jour les résultats de détection
Pour modifier les résultats de sortie, par exemple, avec une autre valeur de confiance ou en choisissant une autre zone d’intérêt, modifiez ces propriétés et exécutez à nouveau l’outil Détection d’objets. L’objet récemment découvert sera ajouté à la même couche. Sinon, renseignez un nouveau nom et créez une autre couche d’entités en sortie pour comparaison. Il n’est pas recommandé de mettre à jour manuellement les valeurs d’attribut des résultats de détection des objets. Vous pouvez également développer la section Filter Results (Filtrer les résultats) pour spécifier les valeurs de taille et de distance et ainsi ajuster les résultats renvoyés.
Conseil :
Avant de ré-exécuter l’outil, désactivez la visibilité des couches pour les résultats de détection précédents. Sinon, ces résultats risquent de superposer les objets en cours de détection, ce qui pourrait avoir un impact sur les résultats de détection.
Supprimer les résultats de détection
Les résultats de détection sont ajoutés comme entités ponctuelles. Ainsi, vous pouvez supprimer les entités individuelles avec les processus de mise à jour standard. Sinon, supprimez l’intégralité de la classe d’entités depuis la géodatabase par défaut du projet. La suppression de la couche depuis la fenêtre Contents (Contenu) ne supprime pas automatiquement vos résultats, puisqu’ils existent dans la géodatabase. Si vous exécutez à nouveau l’outil, lorsque la couche n’est pas dans la carte ou la scène actuelle, une nouvelle classe d’entités au nom unique est créée dans la géodatabase par défaut et ajoutée à la vue.
Rubriques connexes
- Deep Learning dans ArcGIS Pro
- Méthodes de création de détection d’objets interactive
- Principes de base des opérations de remblai et déblai interactives
- Principes de base du profil d’élévation interactif
- Notions de base des lignes de visée interactives
- Notions de base des tranches interactives
- Notions de base des dômes de vision interactifs
- Notions de base des champs de vision interactifs
Vous avez un commentaire à formuler concernant cette rubrique ?