Mit Deep Learning können Sie Punktwolken im LAS-Format und viele verschiedene Arten von Features klassifizieren. Dabei werden keine vordefinierten Regeln verwendet, um bestimmte Dinge wie Gebäude oder die Bodenoberfläche zu identifizieren. Stattdessen geben Sie Beispiele für relevante Features an, die daraufhin zum Trainieren eines neuronalen Netzwerks verwendet werden. Dieses kann die Features dann in anderen Daten erkennen und klassifizieren.
Sie können an anderer Stelle erstellte Deep-Learning-Modelle verwenden oder selbst welche erstellen. Die meisten Benutzer entscheiden sich wahrscheinlich für Modelle, die von professionellen Data Scientists erstellt wurden, da diese Arbeit zeitintensiv und aufwändig ist. Sehen Sie im ArcGIS Living Atlas nach, ob dort geeignete Modelle für Ihr Projekt zur Verfügung stehen. Falls dies nicht der Fall ist, erstellen Sie ein eigenes Modell. Weitere Informationen zum Erstellen eines eigenen Modells finden Sie unter Trainieren eines Deep-Learning-Modells für die Punktwolkenklassifizierung. Mit dem Werkzeug Punktwolken-Klassifizierungsmodell auswerten können Sie aus statistischer Sicht bestimmen, wie gut die Performance eines trainierten Modells hinsichtlich Ihrer Daten ist.
Unabhängig davon, ob Sie das Deep-Learning-Modell eines anderen Benutzers oder ein eigenes Modell verwenden, müssen Sie sicherstellen, dass die Daten, die Sie klassifizieren möchten, den Daten, die zum Trainieren des Modells verwendet wurden, ähnlich sind. Idealerweise stammen sie aus demselben Datenerfassungsprojekt. Falls nicht, sollten sie zumindest über dieselbe Qualität verfügen. Ein Modell, das mit LIDAR-Luftbilddaten trainiert wurde, eignet sich beispielsweise für die Klassifizierung von Punktwolken aus LIDAR-Luftbilddaten, jedoch nicht für photogrammetrische/SfM-Punktwolken. Der nominale Punktabstand sollte ähnlich sein, und falls andere Attribute im Modell vorhanden sind (z. B. Intensität oder Rückgabenummer), sollten diese ebenfalls ähnlich sein.
Verwenden des Werkzeugs "Punktwolke mithilfe des trainierten Modells klassifizieren"
Das Geoverarbeitungswerkzeug Punktwolke mithilfe des trainierten Modells klassifizieren benötigt ein LAS-Dataset und ein Deep Learning-Modell als Eingabe. Das LAS-Dataset verweist auf ein oder mehrere LAS-Dateien, die dann vom Werkzeug bearbeitet werden. Bei diesem Modell kann es sich entweder um eine Esri Modelldefinitionsdatei (*.emd) oder ein Deep-Learning-Paket (*.dlpk) handeln. Beide werden vom Trainingswerkzeug ausgegeben. Der Unterschied besteht darin, dass Sie .dlpk-Dateien online veröffentlichen und freigeben können; sie sind in sich abgeschlossen. Die *.emd-Dateien dagegen verweisen auf andere Daten, insbesondere .pth-Dateien, die benötigt werden, damit das Modell funktioniert.
Sobald das Modell als Eingabe für das Werkzeug hinzugefügt wird, wird die Liste der Klassen, für deren Klassifizierung es trainiert wurde, im Werkzeugdialogfeld angezeigt. In der Standardeinstellung sind alle Klassen ausgewählt. Sie können alle nicht relevanten Klassen deaktivieren.
Ein anderer Parameter mit der Bezeichnung Verarbeitung vorhandener Klassencodes ermöglicht es anzugeben, welche Elemente in der LAS-Zielpunktwolke geändert werden dürfen. Standardmäßig können alle Punkte in der Zielpunktwolke bearbeitet werden. Alternativ können Sie angeben, dass nur Punkte mit bestimmten Klassen geändert werden dürfen. Andere bleiben unverändert, und zwar unabhängig davon, welche Vorhersage das Deep-Learning-Modell für sie trifft. Sie können ggf. auch das Gegenteil auswählen und angeben, dass Punkte mit bestimmten Codes nicht geändert werden dürfen. Wenn die Zielpunktwolke etwa bereits für die Bodenoberfläche klassifiziert wurde und Sie diese unverändert lassen möchten, legen Sie fest, dass Punkte der Klasse 2 (die die Bodenoberfläche darstellen) beibehalten werden.
Der Parameter Batch-Größe beeinflusst die Performance des Klassifizierungsprozesses. Er repräsentiert die Anzahl der Datenblöcke, die der GPU gleichzeitig zur Verfügung gestellt werden. Je höher der Wert, desto schneller der Prozess, da die GPU diese parallel verarbeitet. Die Kosten sind der Speicher. Es können nur so viele Blöcke verarbeitet werden, wie es der verfügbare GPU-Speicher zulässt. Wenn die Batch-Größe nicht angegeben wird, versucht das Werkzeug standardmäßig, selbst einen angemessenen Wert zu ermitteln. Der verwendete Wert wird in Ausgabe-Meldungen angegeben. Es ist möglich, dass ein größerer Wert verwendet werden kann. Sie können den Standard also überschreiben, indem Sie einen Wert angeben. Während eines Testlaufs können Sie die Speichernutzung der GPU überwachen. Wenn Sie feststellen, dass während der Klassifizierung noch eine große Menge an GPU-Speicher verfügbar ist, können Sie die Batch-Größe problemlos erhöhen, um mehr Blöcke gleichzeitig verarbeiten zu können.