Mit der Advanced-Lizenz verfügbar.
Mit der Image Analyst-Lizenz verfügbar.
Die Objekterkennung wird verwendet, um relevante Objekte in Bilddaten zu finden, die in einer Karte oder Szene dargestellt werden.
Die Objekterkennung basiert auf einem Deep-Learning-Modell, das trainiert wurde, um bestimmte Objekte zu erkennen, beispielsweise Fenster und Türen in Gebäuden in einer Szene. Die Erkennungsergebnisse werden mit einem Konfidenzwert, Rahmenbemaßungen und dem Beschriftungsnamen als Attribute in einer Point-Feature-Class gespeichert. Zudem können Sie interaktiv andere Objekte, z. B. geparkte Flugzeuge oder Flughafengebäude, mithilfe eines generischen Modells erkennen, indem Sie zur Erkennung des Ergebnisses in der Ansicht klicken.
Sie müssen Deep-Learning-Bibliotheken installieren, um die Objekterkennung zu verwenden.
Lizenz:
Das interaktive Werkzeug "Objekterkennung" erfordert entweder eine ArcGIS Pro Advanced-Lizenz oder die Erweiterung ArcGIS Image Analyst.
Das Werkzeug Objekterkennung
befindet sich auf der Registerkarte Analyse in der Gruppe Workflows im Dropdown-Menü Explorative 3D-Analyse. Nach Auswahl des Werkzeugs Objekterkennung wird der Bereich Explorative Analyse angezeigt.
Im Bereich Explorative Analyse können Sie die Parameter der Objekterkennung ändern und die Kameramethode für die Erkennungsergebnisse festlegen. Bei der erstmaligen Ausführung des Werkzeugs wird das Esri Modell für Fenster und Türen verwendet. Das Modell wird geladen, und die Erkennungen werden berechnet. Für nachfolgende Ausführungen muss das Modell nicht neu geladen werden, daher verkürzt sich die Zeit. Wenn Sie die Modellauswahl ändern, muss das neue Modell noch einmal geladen werden. Für das Modell "Generisches Objekt" muss kein Modell heruntergeladen werden.
Die folgenden Bilder veranschaulichen das zurückgegebene Objekterkennungsergebnis mit den verfügbaren Symbolisierungsoptionen: einer Box-Symbolisierung oder einer Symbolisierung mit dem Positionsmittelpunkt X.


Erkennen von Objekten in einer Szene
Das Werkzeug "Objekterkennung" kann mit jedem unterstützten Modell arbeiten, das für die Erkennung bestimmter Objekte trainiert wurde. Dieses Werkzeug umfasst ein spezielles Modell für die Erkennung von Fenstern und Türen sowie über ein allgemeines Modell für die interaktive Erkennung anderer Objekte.
Das Esri Deep-Learning-Modell für Fenster und Türen erkennt Fenster und Türen als Punkt-Features. Die Objekterkennungsparameter für die Verwendung des Esri Modells für Fenster und Türen werden in der folgenden Tabelle beschrieben:
| Objekterkennungsparameter des Modells für Fenster und Türen | Beschreibung |
|---|---|
Model | Das Deep-Learning-Paket (.dlpk) zum Erkennen von Objekten. Zu den unterstützten Modelltypen gehören FasterRCNN, YOLOv3, Single Shot Detector (SSD) und RetinaNet. Erweitern Sie den Eingabe-Dropdown-Pfeil Modell herunterladen, und klicken Sie auf Herunterladen, um automatisch das bereits trainierte Esri Modell für Fenster und Türen abzurufen. Klicken Sie optional auf Durchsuchen, um ein lokales Deep-Learning-Paket auszuwählen oder um eines von ArcGIS Online herunterzuladen. |
Klassen | Die Liste tatsächlicher zu erkennender Objekte. Diese Liste wird mit der .dlpk-Datei gefüllt. Der Standardwert ist Alle, aber Sie können nur Fenster oder nur Türen angeben. |
Minimales Konfidenzniveau | Die minimale Erkennungspunktzahl, die eine Erkennung erfüllen muss. Erkennungen mit Punktzahlen unter diesem Konfidenzniveau werden verworfen. Der Standardwert ist 0,5. |
Maximaler Überlappungsschwellenwert | Der IoU-Schwellenwert (Intersection over Union) mit anderen Erkennungen. Wenn die Erkennungsergebnisse überlappen, wird das Ergebnis mit der höchsten Punktzahl als richtig positiv gewertet. Der Standardwert ist 0. |
Mit GPU verarbeiten | Nutzen Sie die Leistung des Grafikprozessors (Graphics Processing Unit, GPU) statt der Leistung der zentralen Verarbeitungseinheit (Central Processing Unit, CPU). Dies wird empfohlen, wenn Sie eine Grafikkarte mit mindestens 8 GB reserviertem GPU-Speicher verwenden. |
Feature-Layer | Der Name des Ausgabe-Feature-Layers.
|
Beschreibung | Die Beschreibung, die in die Attributtabelle aufgenommen werden soll. Mehrere Erkennungsergebnisse können im selben Feature-Layer gespeichert werden. Mit einer Beschreibung kann zwischen diesen Erkennungen unterschieden werden. |
Symbolisierung | Die zurückgegebene Form des Ausgabe-Feature-Layers in der Standardfarbe "Elektron-Gold". Die Symbolisierungsoptionen sind:
Wenn der Ausgabe-Layer in der Karte oder Szene bereits vorhanden ist und eine benutzerdefinierte Symbolisierung aufweist, wird die Symbolisierung bei der Werkzeugausführung nicht geändert. |
Maximale Entfernung | Nur in 3D verfügbar. Legen Sie unter der Überschrift Ergebnisse filtern die maximale Entfernung von der Kamera fest, für die Ergebnisse beibehalten werden. Alles, was über die festgelegte Tiefe hinausgeht, wird ignoriert. |
Breite | Legen Sie unter der Überschrift Ergebnisse filtern die minimalen und maximalen Breitenwerte für die Größe des erwarteten zurückgegebenen Ergebnisses fest. |
Höhe | Legen Sie unter der Überschrift Ergebnisse filtern die minimalen und maximalen Höhenwerte für die Größe des erwarteten zurückgegebenen Ergebnisses fest. |
Die Erstellungsmethoden der Objekterkennung werden in der folgenden Tabelle beschrieben:
| Erstellungsmethode | Beschreibung |
|---|---|
Aktuelle Kamera | Hierbei handelt es sich um die Standard-Erstellungsmethode. Zum Erkennen von Objekten in der Ansicht wird die aktuelle Kameraposition genutzt. |
Kamera neu positionieren | Positioniert die Kamera an einem horizontalen oder vertikalen Betrachtungspunkt neu, bevor Objekte erkannt werden. Richten Sie den Betrachtungspunkt für den Interessenbereich ein, und optimieren Sie mit dieser Methode die Ausrichtung. Verwenden Sie diese Methode nicht, um die Kamera auf Objekte in einiger Entfernung auszurichten, um sie in der Ansicht heranzuholen. |
Erkennen von Objekten unter Verwendung der aktuellen Kameraposition
Hierbei handelt es sich um die standardmäßige Erstellungsmethode für das Esri Modell für Fenster und Türen. Objekte werden basierend auf den zusätzlichen Parametern erkannt, die im Bereich Explorative Analyse definiert wurden.
Nach der Verwendung der Methode Aktuelle Kamera bleibt diese aktiv, um weitere Objekte zu erkennen. Sie können zu einem anderen Bereich navigieren und erneut Objekte erkennen. Dadurch wird sichergestellt, dass das Modell nicht neu geladen werden muss, sodass die Ergebnisse schneller zurückgegeben werden. Wenn Sie ein anderes Deep-Learning-Paketmodell (.dlpk) verwenden, wird es neu geladen.
Neupositionieren der Kamera
Finden Sie Fenster und Türen in der aktuellen Szene, indem Sie einen Betrachtungspunkt festlegen und die Kamera neu positionieren, sodass sie auf den Betrachtungspunkt ausgerichtet ist. Fenster- und Türobjekte werden auf Grundlage der Parameter erkannt, die im Bereich Explorative Analyse definiert werden. Diese Methode ist nur in Szenen verfügbar.
Mit dieser Methode können Sie die Sichtrichtung der Kamera festlegen, bevor Sie die Objekterkennung durchführen. Legen Sie beispielsweise eine horizontale Sichtrichtung fest, wenn Sie auf eine Gebäudefassade klicken, auf der Sie Fenster erkennen möchten. Eine vertikale Sichtrichtung ist für einen senkrechten Kamerawinkel nützlich, z. B. beim Erkennen von Schwimmbädern. Die Kamera wird automatisch angepasst.
Tipp:
Diese Methode ist nicht dafür vorgesehen, die Ansicht näher zu positionieren, sodass weit entfernte relevante Objekte leichter zu erkennen sind. Sie sollten dennoch manuell in die Nähe des relevanten Objekts navigieren. Dann richtet sich die Kamera vertikal oder horizontal an dem angeklickten Ziel aus, um Objekte zu erkennen.
Die Methode Kamera neu positionieren bleibt aktiv, um weitere Objekte zu erkennen. Klicken Sie, um einen anderen Betrachtungspunkt zu definieren, und führen Sie die Objekterkennung erneut durch.
Generische Objekterkennung
Verwenden Sie das Deep-Learning-Modell "Generisches Esri Objekt", um einzelne Objekte wie Fahrzeuge, Bauwerke und Personen in einer Karte oder Szene interaktiv zu erkennen. Statt die Kamera zu verwenden, können Sie direkt in die Ansicht klicken, um Ergebnisse zu erkennen. Einige Erkennungsoptionen wie Klassen, Konfidenzniveau, Überlappungsschwellenwert und Leistung sind nicht verfügbar. Ergebnisse werden als Punkt-Features mit der für das Werkzeug festgelegten Symbolisierungsoption gespeichert.
Die Parameter der Objekterkennung, die das Modell "Generisches Esri Objekt" verwendet, werden in der folgenden Tabelle beschrieben:
| Objekterkennungsparameter für das Modell "Generisches Objekt" | Beschreibung |
|---|---|
Model | Erweitern Sie die Dropdown-Liste Modell, und wählen Sie Generisches Esri Objekt aus, um den Prozess der Objekterkennung zu definieren. |
Feature-Layer | Der Name des Ausgabe-Feature-Layers.
|
Beschreibung | Die Beschreibung, die als Feld in die Attributtabelle aufgenommen werden soll. Mehrere Erkennungsergebnisse können im selben Feature-Layer gespeichert werden. Mit einer Beschreibung kann zwischen diesen Erkennungen unterschieden werden. |
Symbolisierung | Die zurückgegebene Form des Ausgabe-Feature-Layers in der Standardfarbe "Elektron-Gold". Die Symbolisierungsoptionen sind:
Wenn der Ausgabe-Layer in der Karte oder Szene bereits vorhanden ist und eine benutzerdefinierte Symbolisierung aufweist, wird die Symbolisierung bei der Werkzeugausführung nicht geändert. |
Erstellungsmethode | Interaktive Erkennung |
Aktualisieren der Ergebnisse der Objekterkennung
Um die Ausgabeergebnisse zu ändern, um beispielsweise einen anderen Konfidenzwert oder Interessenbereich anzugeben, ändern Sie diese Eigenschaften, und führen Sie das Werkzeug Objekterkennung erneut aus. Neu erkannte Objekte werden an denselben Ausgabe-Layer angefügt.
Hinweis:
Falls der Ergebnis-Layer nicht in der aktuellen Karte oder Szene vorhanden ist, wenn das Werkzeug erneut ausgeführt wird, wird eine neue Feature-Class mit einem eindeutigen Namen in der Standard-Geodatabase erstellt und als Layer zur Karte oder Szene hinzugefügt.
Tipp:
Bevor Sie das Werkzeug erneut ausführen, deaktivieren Sie für die vorherigen Erkennungsergebnisse die Layer-Sichtbarkeit. Andernfalls können diese Ergebnisse mit den erkannten Objekten überlappen und könnten die Erkennungsergebnisse beeinträchtigen.

(nur in 3D-Szenen verfügbar)