Grundlagen der interaktiven Objekterkennung

Mit der Advanced-Lizenz verfügbar.

Mit der Image Analyst-Lizenz verfügbar.

Die interaktive Objekterkennung wird verwendet, um relevante Objekte in Bilddaten zu finden, die in einer Szene dargestellt werden.

Die Objekterkennung basiert auf einem Deep-Learning-Modell, das trainiert wurde, um bestimmte Objekte in einem Bild zu erkennen, beispielsweise Fenster und Türen in Gebäuden in einer Szene. Die Erkennungsergebnisse werden automatisch mit einem Konfidenzwert, Rahmenbemaßungen und dem Beschriftungsnamen als Attribute in einer Point-Feature-Class gespeichert.

Vor der Ausführung des Werkzeugs müssen die Deep-Learning-Bibliotheken installiert werden.

Lizenz:

Das interaktive Werkzeug "Objekterkennung" erfordert entweder eine ArcGIS Pro Advanced-Lizenz oder die Erweiterung ArcGIS Image Analyst.

Die folgenden Bilder veranschaulichen das zurückgegebene Objekterkennungsergebnis mit unterschiedlichen Symbolisierungsoptionen.

Interaktive Objekterkennung mit Box-Symbolisierung

Interaktive Objekterkennung mit Positionspunkt-Symbolisierung

Erkennen von Objekten in einer 3D-Ansicht

Das interaktive Werkzeug Objekterkennung Objekterkennung befindet sich auf der Registerkarte Analyse in der Gruppe Workflows im Dropdown-Menü Explorative 3D-Analyse. Nach Auswahl des Werkzeugs Objekterkennung wird der Bereich Explorative Analyse angezeigt. Im Bereich Explorative Analyse können Sie die Parameter der Objekterkennung ändern oder akzeptieren und festlegen, welche Kameramethode die Werkzeugausführung bestimmt, um Erkennungsergebnisse zu erhalten. Wenn das Werkzeug zum ersten Mal ausgeführt wird, wird das Modell geladen und die Erkennungen werden berechnet. Für nachfolgende Ausführungen muss das Modell nicht neu geladen werden, daher verkürzt sich die Zeit. Wenn Sie die Modellauswahl ändern, ist wieder das anfängliche Laden erforderlich.

Eigenschaften der Objekterkennung

Die Eigenschaften der Objekterkennung werden in der folgenden Tabelle beschrieben:

OptionBeschreibung

Modell

Das Deep-Learning-Paket (.dlpk) zum Erkennen von Objekten. Zu den unterstützten Modelltypen gehören FasterRCNN, YOLOv3, Single Shot Detector (SSD) und RetinaNet.

Erweitern Sie den Eingabe-Dropdown-Pfeil Modell, und klicken Sie auf Herunterladen, um automatisch das bereits trainierte Esri Modell für Fenster und Türen abzurufen. Klicken Sie optional auf Durchsuchen, um ein lokales Deep-Learning-Paket auszuwählen oder um eines von ArcGIS Online herunterzuladen.

Klassen

Die Liste tatsächlicher zu erkennender Objekte. Diese Liste wird mit der .dlpk-Datei gefüllt. Standardmäßig ist Alle festgelegt.

Minimales Konfidenzniveau

Die minimale Erkennungspunktzahl, die eine Erkennung erfüllen muss. Erkennungen mit Punktzahlen unter diesem Niveau werden verworfen. Der Standardwert ist 0,5.

Maximaler Überlappungsschwellenwert

Der IoU-Schwellenwert (Intersection over Union) mit anderen Erkennungen. Wenn die Erkennungsergebnisse überlappen, wird das Ergebnis mit der höchsten Punktzahl als richtig positiv gewertet. Der Standardwert ist 0.

Mit GPU verarbeiten

Nutzen Sie die Leistung des Grafikprozessors (Graphics Processing Unit, GPU) statt der Leistung der zentralen Verarbeitungseinheit (Central Processing Unit, CPU). Es wird empfohlen, dass Sie eine sehr gute Grafikkarte mit mindestens 8 GB reserviertem GPU-Speicher verwenden.

Feature-Layer

Der Name des Ausgabe-Feature-Layers.

  • Wenn der Layer nicht vorhanden ist, wird eine Feature-Class in der Standard-Geodatabase des Projekts erstellt und zur aktuellen Karte oder Szene hinzugefügt.
  • Wenn der Layer in der Ansicht bereits vorhanden ist und das erforderliche Schema aufweist, werden neu erkannte Objekte an die vorhandene Feature-Class angefügt.
  • Falls Sie das Werkzeug erneut ausführen, wenn der Layer nicht in der aktuellen Karte oder Szene vorhanden ist, wird eine neue Feature-Class mit einem eindeutigen Namen in der Standard-Geodatabase erstellt und zur Ansicht hinzugefügt.

Beschreibung

Die Beschreibung, die in die Attributtabelle aufgenommen werden soll. Mehrere Erkennungsergebnisse können im selben Feature-Layer gespeichert werden. Mit einer Beschreibung kann zwischen diesen Erkennungen unterschieden werden.

Symbolisierung

Die zurückgegebene Form des Ausgabe-Feature-Layers in der Standardfarbe "Elektron-Gold". Die Symbolisierungsoptionen sind:

  • Positionspunkt: Ein X markiert den Mittelpunkt des Features. Dies ist die Standardeinstellung.
  • Vertikales umgebendes Rechteck (nur 3D): Ein vertikales halbtransparent gefülltes umgebendes Rechteck. Verwenden Sie die Symbolisierung "Vertikales umgebendes Rechteck" in Szenen für Deep-Learning-Modelle, die vertikale Objekte wie Fenster und Türen erkennen.
  • Horizontales umgebendes Rechteck (nur 3D): Ein horizontales halbtransparent gefülltes umgebendes Rechteck. Verwenden Sie die Symbolisierung "Horizontales umgebendes Rechteck" in Szenen für Deep-Learning-Modelle, die horizontale Objekte wie Schwimmbäder erkennen.

Wenn der Ausgabe-Layer in der Ansicht bereits vorhanden ist und eine benutzerdefinierte Symbolisierung aufweist, wird die Symbolisierung bei der Werkzeugausführung nicht geändert.

Entfernung

Legen Sie die maximale Entfernung von der Kamera fest, für die Ergebnisse beibehalten werden. Alles, was über die festgelegte Tiefe hinausgeht, wird ignoriert.

Breite

Legen Sie die minimalen und maximalen Breitenwerte für die Größe des erwarteten zurückgegebenen Ergebnisses fest.

Höhe

Legen Sie die minimalen und maximalen Höhenwerte für die Größe des erwarteten zurückgegebenen Ergebnisses fest.

Hinweis:
Die Parameter "Entfernung", "Breite" und "Höhe" werden im Abschnitt Ergebnisse filtern angezeigt, den Sie zum Anzeigen dieser Werte möglicherweise erweitern müssen.

Methoden der Objekterkennung

Die Methoden der Objekterkennung werden in der folgenden Tabelle beschrieben:

MethodeBeschreibung

Aktuelle Kamera Aktuelle Kamera

Hierbei handelt es sich um die Standard-Erstellungsmethode. Sie nutzt die aktuelle Kameraposition zum Erkennen von Objekten.

Kamera neu positionieren Kamera neu positionieren (nur 3D)

Positioniert die Kamera an einem horizontalen oder vertikalen Betrachtungspunkt neu, bevor Objekte erkannt werden. Richten Sie den Betrachtungspunkt für den Interessenbereich ein, und optimieren Sie mit dieser Methode die Ausrichtung. Sie wird nicht empfohlen, um die Kamera auf Objekten in einiger Entfernung zu positionieren, um sie in der Ansicht heranzuholen.

Aktualisieren der Erkennungsergebnisse

Um die Ausgabeergebnisse zu ändern, um beispielsweise einen anderen Konfidenzwert oder Interessenbereich anzugeben, ändern Sie diese Eigenschaften, und führen Sie das Werkzeug Objekterkennung erneut aus. Neu erkannte Objekte werden an denselben Layer angefügt. Geben Sie alternativ einen neuen Namen an, und erstellen Sie zum Vergleich einen anderen Ausgabe-Feature-Layer. Es ist nicht ratsam, die Attributwerte der Objekterkennungsergebnisse manuell zu aktualisieren. Sie können zudem den Abschnitt Ergebnisse filtern erweitern, um die Größen- und Entfernungswerte zum Optimieren der zurückgegebenen Ergebnisse anzugeben.

Tipp:

Bevor Sie das Werkzeug erneut ausführen, deaktivieren Sie für die vorherigen Erkennungsergebnisse die Layer-Sichtbarkeit. Andernfalls können diese Ergebnisse mit den erkannten Objekten überlappen und könnten die Erkennungsergebnisse beeinträchtigen.

Löschen der Erkennungsergebnisse

Die Erkennungsergebnisse werden als Punkt-Features hinzugefügt. Daher können Sie einzelne Features mit den standardmäßigen Bearbeitungs-Workflows löschen. Löschen Sie alternativ die vollständige Feature-Class aus der Standard-Geodatabase des Projekts. Durch das Entfernen des Layers aus dem Bereich Inhalt werden Ihre Ergebnisse nicht automatisch gelöscht, da sie weiterhin in der Geodatabase vorliegen. Falls Sie das Werkzeug erneut ausführen, wenn der Layer nicht in der aktuellen Karte oder Szene vorhanden ist, wird eine neue Feature-Class mit einem eindeutigen Namen in der Standard-Geodatabase erstellt und zur Ansicht hinzugefügt.

Verwandte Themen