Disponible avec une licence Advanced.
La détection d’objets interactive est utilisée pour trouver les objets d’intérêt à partir de l’imagerie affichée dans une scène.
La détection des objets repose sur un modèle de Deep Learning qui a été entraîné pour détecter des objets spécifiques dans une image, comme les fenêtres ou les portes de bâtiments d’une scène. Les résultats de détection sont enregistrés automatiquement vers une classe d’entités ponctuelles avec un score de confiance, des dimensions d’emprise et le nom d’étiquette comme attributs.
Cet outil exige d’installer des Bibliothèques de Deep Learning avant d’être exécuté.
Licence :
Un niveau de licence ArcGIS Pro Advanced est nécessaire pour exécuter la détection des objets.
Les images ci-dessous illustrent le résultat de la détection des objets renvoyé avec les différentes options de symbologie.
Détecter les objets dans une vue 3D
L’outil Détection d’objets est disponible dans le menu déroulant Exploratory 3D Analysis (Analyse 3D exploratoire) du groupe Workflows (Processus) dans l’onglet Analysis (Analyse). Une fois que vous avez sélectionné l’outil Détection d’objets, la fenêtre Exploratory Analysis (Analyse exploratoire) s’affiche. Utilisez la fenêtre Exploratory Analysis (Analyse exploratoire) pour modifier ou accepter les paramètres de détection des objets et définir quelle méthode de caméra détermine le fonctionnement de l’outil pour les résultats de détection. Lors de la première exécution de l’outil, le modèle est chargé et les détections sont calculées. Les exécutions supplémentaires n’exigent pas le rechargement du modèle et seront plus rapides. Le changement de sélection du modèle impliquera à nouveau le temps de chargement initial.
Propriétés de détection des objets
Les propriétés pour la détection des objets sont décrites dans le tableau suivant :
Option | Description |
---|---|
Model (Modèle) | Paquetage de Deep learning (.dlpk) pour utiliser les objets de détection. Le modèle formé doit être un modèle FasterRCNN. Développez le menu déroulant de saisie Model (Modèle) et cliquez sur Download (Télécharger) pour obtenir automatiquement le modèle préformé Fenêtres et portes Esri. En option, vous pouvez cliquez sur Browse (Parcourir) pour choisir un paquetage de Deep Learning local ou télécharger depuis ArcGIS Online. |
Classes | Liste des objets du monde réel à détecter. Cette liste est complétée à partir du fichier .dlpk. L’option par défaut est définie sur All (Tout). |
Minimum Confidence Level (Niveau de confiance minimal) | Score de détection minimum auquel une détection doit satisfaire. Les détections avec des scores inférieurs à ce niveau sont ignorées. La valeur par défaut est 0,5. |
Maximum Overlap Threshold (Seuil de superposition maximal) | Seuil de l’intersection sur union par rapport à d’autres détections. Si la détection entraîne une superposition, celle affichant le score le plus élevé est considérée comme réellement positive. La valeur par défaut est 0. |
Process using GPU (Processus utilisant le GPU) | Utilisez la puissance de traitement du GPU (unité de traitement graphique) plutôt que le CPU (unité de traitement de l’ordinateur). Recommandé si vous avez une excellente carte graphique avec au moins 8 Go dédiés de mémoire GPU. |
Feature layer (Couche d’entités) | Nom de la couche d'entités en sortie.
|
Description | Description à inclure dans la table attributaire. Les résultats de détections multiples peuvent être enregistrés vers la même couche d’entités et une description peut être utilisée pour distinguer ces multiples détections. |
Symbologie | Définissez la forme renvoyée de la couche d’entités en sortie avec la couleur par défaut, doré électron. Les choix en matière de symbologie sont les suivants :
Si la couche en sortie est déjà dans la vue et si elle a une symbologie personnalisée, sa symbologie n’est pas modifiée lors de l’exécution de l’outil. |
Méthodes de détection des objets
Les méthodes pour la détection des objets sont décrites dans le tableau suivant :
Méthode | Description |
---|---|
Il s’agit de la méthode de création par défaut. Elle utilise la position actuelle de la caméra pour détecter des objets. | |
Reposition Camera (Repositionner la caméra) (3D uniquement) | Repositionne la caméra sur un point de vue horizontal ou vertical avant de détecter des objets. Configurez la zone du point de vue d’intérêt et utilisez-la pour affiner l’alignement. Il n’est pas recommandé de positionner la caméra sur les objets au loin pour les rapprocher dans la vue. |
Mettre à jour les résultats de détection
Pour modifier les résultats de sortie, par exemple, avec une autre valeur de confiance ou en choisissant une autre zone d’intérêt, modifiez ces propriétés et exécutez à nouveau l’outil Détection d’objets. L’objet récemment découvert sera ajouté à la même couche. Sinon, renseignez un nouveau nom et créez une autre couche d’entités en sortie pour comparaison. Il n’est pas recommandé de mettre à jour manuellement les valeurs d’attribut des résultats de détection des objets.
Astuce :
Avant de ré-exécuter l’outil, désactivez la visibilité des couches pour les résultats de détection précédents. Sinon, ces résultats risquent de superposer les objets en cours de détection, ce qui pourrait avoir un impact sur les résultats de détection.
Supprimer les résultats de détection
Les résultats de détection sont ajoutés comme entités ponctuelles. Ainsi, vous pouvez supprimer les entités individuelles avec les processus de mise à jour standard. Sinon, supprimez l’intégralité de la classe d’entités depuis la géodatabase par défaut du projet. La suppression de la couche depuis la fenêtre Contents (Contenu) ne supprime pas automatiquement vos résultats, puisqu’ils existent dans la géodatabase. Si vous exécutez à nouveau l’outil, lorsque la couche n’est pas dans la carte ou la scène actuelle, une nouvelle classe d’entités au nom unique est créée dans la géodatabase par défaut et ajoutée à la vue.
Rubriques connexes
- Apprentissage profond dans ArcGIS Pro
- Méthodes de création de détection d’objets interactive
- Principes de base des opérations de remblai et déblai interactives
- Principes de base du profil d’élévation interactif
- Notions de base des lignes de visée interactives
- Notions de base des tranches interactives
- Notions de base des dômes de vision interactifs
- Notions de base des champs de vision interactifs
Vous avez un commentaire à formuler concernant cette rubrique ?