Mit der Image Analyst-Lizenz verfügbar.
Mit der Spatial Analyst-Lizenz verfügbar.
Alle überwachten Deep-Learning-Aufgaben hängen von beschrifteten Datasets ab, d. h. Menschen müssen ihr Wissen anwenden, um das neuronale Netzwerk im Hinblick auf die zu identifizierenden Objekte zu trainieren. Das neuronale Netzwerk trainiert mithilfe der beschrifteten Objekte ein Modell, das zur Dateninferenzierung verwendet werden kann.
Die Annotation bzw. Beschriftung von Bildern ist für Deep-Learning-Aufgaben wie maschinelles Sehen und Lernen von entscheidender Bedeutung. Um ein gutes Deep-Learning-Modell zu trainieren, ist eine große Menge beschrifteter Daten erforderlich. Sofern geeignete Trainingsdaten zur Verfügung stehen, können Deep-Learning-Systeme bei der Feature-Extraktion, der Mustererkennung und der Lösung komplexer Probleme sehr genaue Ergebnisse liefern. Im Bereich Objekte für Deep Learning beschriften können Sie Daten schnell und präzise beschriften.
Die Schaltfläche Objekte für Deep Learning beschriften befindet sich im Dropdown-Menü Klassifizierungswerkzeuge in der Gruppe Bildklassifizierung auf der Registerkarte Bilddaten. Der Bereich besteht aus zwei Teilen. Im oberen Teil werden die Klassen verwaltet, während der untere Teil des Bereichs verwendet wird, um die gesammelten Stichproben zu verwalten und die Trainingsdaten für Deep-Learning-Frameworks zu exportieren.
Erstellen von Klassen und Beschriften von Objekten
Im oberen Teil des Bereichs können Sie Objektklassen verwalten und manuell Objekte für das Training des Deep-Learning-Modells erstellen. Es stehen zahlreiche Werkzeuge zur Verfügung, mit denen Sie beschriftete Objekte erstellen können.
Werkzeug | Funktion |
---|---|
Ein beschriftetes Objekt durch Zeichnen eines Rechtecks um ein Feature oder Objekt im Raster erstellen | |
Ein beschriftetes Objekt durch Zeichnen eines Polygons um ein Feature oder Objekt im Raster erstellen | |
Ein beschriftetes Objekt durch Zeichnen eines Kreises um ein Feature oder Objekt im Raster erstellen | |
Ein beschriftetes Objekt durch Zeichnen einer Freihandform um ein Feature oder Objekt im Raster erstellen | |
Das Feature oder Objekt automatisch erkennen und beschriften. Um das Feature oder Objekt wird ein Polygon gezeichnet. Dieses Werkzeug ist nur verfügbar, wenn die Deep-Learning-Framework-Bibliotheken installiert sind. | |
Ein Feature durch Auswählen eines Segments aus einem segmentierten Layer erstellen. Diese Option ist nur verfügbar, wenn der Bereich Inhalt einen segmentierten Layer enthält. Aktivieren Sie die Segmentauswahl, indem Sie den segmentierten Layer im Bereich Inhalt markieren, und wählen Sie den Layer dann in der Dropdown-Liste Segmentauswahl aus. | |
Weist dem aktuellen Bild die ausgewählte Klasse zu. Diese Option ist nur im Modus "Bildsammlung" verfügbar. | |
Ein beschriftetes Objekt auswählen und bearbeiten | |
Ein Klassifizierungsschema erstellen | |
Wählen Sie eine Option für das Klassifizierungsschema aus.
| |
Die am Schema vorgenommenen Änderungen speichern | |
Eine neue Kopie des Schemas speichern | |
Dem Schema eine Klassenkategorie hinzufügen. Wählen Sie zunächst den Namen des Schemas aus, um eine übergeordnete Klasse auf höchster Ebene zu erstellen. Wählen Sie den Namen einer vorhandenen Klasse aus, um eine Unterklasse zu erstellen. | |
Die ausgewählte Klassen- oder Unterklassen-Kategorie aus dem Schema entfernen. |
- Klicken Sie auf eines der Skizzenwerkzeuge, z. B. Rechteck, Polygon, Kreis oder Freihand, um mit dem Sammeln von Objektstichproben zu beginnen.
- Skizzieren Sie mithilfe eines Skizzenwerkzeugs das Bild-Feature, welches das Objekt auf der Karte darstellt.
- Wenn Sie ein Feature erstellen, für das keine Klasse angegeben wurde, wird das Dialogfeld Klasse definieren angezeigt. Weitere Informationen zu diesem Dialogfeld finden Sie im Abschnitt Klasse definieren.
- Erstellen und beschriften Sie weitere Objekte, wobei Sie die oben beschriebenen Schritte ausführen.
- Sie können die Registerkarte Beschriftete Objekte (im unteren Teil des Bereichs) verwenden, um die beschrifteten Objektstichproben zu löschen und zu organisieren.
- Wenn Sie mit den beschrifteten Objekten zufrieden sind, speichern Sie die Stichproben, indem Sie auf die Schaltfläche Speichern auf der Registerkarte Beschriftete Objekte klicken.
Nachdem Sie eine repräsentative Stichprobe der Objekte manuell beschriftet haben, können Sie diese verwenden, um Ihre Trainingsdaten zu exportieren.
Automatisch erkennen
Mit dem Werkzeug Automatisch erkennen wird automatisch ein Rechteck um ein Feature gezeichnet. Klicken Sie auf das Feature, damit ein umgebendes Rechteck darum herum aufgezogen wird. Wenn Sie eine Polygongrenze des Features benötigen, halten Sie die Umschalt-Taste gedrückt, und klicken Sie auf das Feature. Daraufhin wird eine Umfanglinie um die Form des Features gezeichnet. Damit das Werkzeug erfolgreich eingesetzt werden kann, muss eine beträchtliche Anzahl der Pixel der Features auf der Karte angezeigt werden, sodass Sie die Features vergrößern müssen.
Automatisch erkennen eignet sich gut, wenn verschiedene Features vorliegen. Es wird nicht empfohlen, wenn kontinuierliches Features in enger Nachbarschaft zueinander vorhanden sind.
Klasse definieren
Im Dialogfeld Klasse definieren können Sie eine neue Klasse erstellen oder eine vorhandene Klasse definieren. Mit der Option Vorhandene Klasse verwenden können Sie die entsprechende Option Klassenname für das Objekt auswählen. Mit der Option Neue Klasse hinzufügen haben Sie die Möglichkeit, die Informationen zu bearbeiten, bevor Sie auf OK klicken, um die neue Klasse zu erstellen.
Bildsammlungen beschriften
Wenn Sie über eine Bildsammlung verfügen und diese beschriften möchten, müssen Sie zunächst mit der Funktion Raster mosaikieren ein Mosaik-Dataset oder einen Mosaik-Layer erstellen. Verwenden Sie dann das Mosaik-Dataset oder den Mosaik-Layer, um die einzelnen Bilder zu beschriften. Auf der Registerkarte Bildsammlung wird die Dropdown-Liste der Bilder angezeigt. Das ausgewählte Bild wird auf der Karte dargestellt. Nun können Sie das Bild mit der entsprechenden Klasse beschriften. Wählen Sie mit den Pfeilschaltflächen das nächste Bild aus, das Sie anzeigen und beschriften möchten.
Wenn sich das Bild in einem Bildkoordinatensystem (ICS) befindet, kann es eine unübliche Ausrichtung aufweisen. Dies gilt insbesondere für Schrägluft- oder perspektivische Bilddaten. Um das Bild mit Pixelabstand anzuzeigen, aktivieren Sie das Kontrollkästchen Beschriftung in Pixelabstand. Dadurch wird das Bild in einer Ausrichtung dargestellt, die günstiger für eine intuitive Bildinterpretation ist.
Gesamtes Bild beschriften
In Fällen, in den Sie keine Grenze um ein Objekt zeichnen möchten, können Sie die Schaltfläche Bild beschriften verwenden, um das gesamte Bild unabhängig von der räumlichen Ausrichtung des Objekts mit der ausgewählten Klasse zu beschriften.
Beschriftete Objekte
Die Registerkarte Beschriftete Objekte befindet sich im unteren Teil des Bereichs und verwaltet die Trainingsgebiete, die Sie für die einzelnen Klassen gesammelt haben. Sammeln Sie für jede Klasse im Bild repräsentative Standorte oder Trainingsgebiete. Ein Trainingsgebiet verfügt über Positionsinformationen (Polygon) und eine zugehörige Klasse. Der Bildklassifizierungsalgorithmus verwendet die als Feature-Class gespeicherten Trainingsgebiete, um die Landbedeckungsklasse im gesamten Bild zu identifizieren.
Sie können Trainingsgebiete anzeigen und verwalten, indem Sie diese hinzufügen, gruppieren oder entfernen. Wenn Sie ein Trainingsgebiet auswählen, wird es auf der Karte markiert. Doppelklicken Sie auf ein Trainingsgebiet in der Tabelle, um auf der Karte darauf zu zoomen.
Werkzeug | Funktion |
---|---|
Eine vorhandene Trainingsgebiet-Feature-Class öffnen | |
Die an der aktuellen Feature-Class mit beschrifteten Objekten vorgenommenen Änderungen speichern | |
Die aktuellen beschrifteten Objekte als eine neue Feature-Class speichern | |
Die ausgewählten beschrifteten Objekte löschen |
Trainingsdaten exportieren
Nachdem die Stichproben gesammelt wurden, können sie durch Klicken auf die Registerkarte Trainingsdaten exportieren in die Trainingsdaten exportiert werden. Anschließend können die Trainingsdaten in einem Deep-Learning-Modell verwendet werden. Nachdem die Parameter angegeben wurden, klicken Sie auf Ausführen, um die Trainingsdaten zu erstellen.
Parameter | Beschreibung |
---|---|
Ausgabeordner | Wählen Sie den Ausgabeordner aus, in dem die Trainingsdaten gespeichert werden sollen. |
Polygon-Features maskieren | Eine Polygon-Feature-Class zur Abgrenzung der Fläche, in der Bildschnipsel erstellt werden. Es werden nur Bildschnipsel erstellt, die vollständig in die Polygone fallen. |
Bildformat | Gibt das Raster-Format für die ausgegebenen Bildschnipsel an.
Die Formate PNG und JPEG unterstützen bis zu drei Bänder. |
Kachelgröße X | Größe der Bildschnipsel (X-Dimension). |
Kachelgröße Y | Größe der Bildschnipsel (Y-Dimension). |
Schritt X | Verschiebung in X-Richtung bei Erstellung der nächsten Bildschnipsel. Wenn der Schritt der Kachelgröße entspricht, gibt es keine Überlappung. Wenn der Schritt der halben Kachelgröße entspricht, gibt es eine Überlappung von 50 Prozent |
Schritt Y | Verschiebung in Y-Richtung bei Erstellung der nächsten Bildschnipsel. Wenn der Schritt der Kachelgröße entspricht, gibt es keine Überlappung. Wenn der Schritt der halben Kachelgröße entspricht, gibt es eine Überlappung von 50 Prozent |
Drehwinkel | Der Drehwinkel, der für die Generierung weiterer Bildschnipsel verwendet wird. Ein Bildschnipsel wird mit dem Drehwinkel 0 und somit ohne Drehung erstellt. Danach wird er um den angegebenen Winkel gedreht, um einen weiteren Bildschnipsel zu erstellen. Zur Datenerweiterung werden dieselben Trainingsgebiete mit mehreren Winkeln in mehreren Bildschnipseln erfasst. Der Standard-Drehwinkel beträgt 0 Grad. |
NoFeature-Kacheln ausgeben | Gibt an, ob Bildschnipsel, die keine Trainingsgebiete erfassen, exportiert werden.
|
Metadatenformat | Gibt das Format für die ausgegebenen Metadaten-Label an. Wenn es sich bei den Eingabedaten für das Trainingsgebiet um einen Feature-Class-Layer handelt, wie zum Beispiel eine Gebäude-Layer- oder Standardklassifizierungs-Trainingsgebiet-Datei, verwenden Sie die Option KITTI-Beschriftungen oder PASCAL Visual Object Classes (KITTI_rectangles oder PASCAL_VOC_rectangles in Python). Die Ausgabe-Metadaten sind eine .txt-Datei oder eine .xml-Datei mit den Daten für das Trainingsgebiet, die im kleinsten umgebenden Rechteck enthalten sind. Der Name der Metadatendatei stimmt mit dem Namen des Eingabequellbildes überein. Wenn es sich bei den Eingabedaten für das Trainingsgebiet um eine Klassenkarte handelt, verwenden Sie als Format für die Ausgabe-Metadaten die Option Klassifizierte Kacheln (Classified_Tiles in Python).
Beim KITTI-Metadatenformat werden 15 Spalten erstellt, jedoch nur 5 davon im Werkzeug verwendet. Die erste Spalte ist der Klassenwert. Die nächsten 3 Spalten werden übersprungen. In den Spalten 5 bis 8 wird das kleinste umgebende Rechteck definiert, das aus vier Bildkoordinatenpositionen besteht. Diese sind die Pixel links, oben, rechts und unten. Das kleinste umgebende Rechteck umfasst den im Deep-Learning-Klassifikator verwendeten Training-Schnipsel. Die verbleibenden Spalten werden nicht verwendet. |
Feature schwärzen | Gibt an, ob die Pixel um die einzelnen Objekte oder Features in den Bildkacheln maskiert werden sollen.
Dieser Parameter findet nur Anwendung, wenn der Parameter Metadatenformat auf Beschriftete Kacheln festgelegt ist und eine Eingabe-Feature-Class oder ein klassifiziertes Eingabe-Raster angegeben wurde. |
Zuschneide-Modus | Gibt an, ob die exportierten Kacheln auf die gleiche Größe zugeschnitten werden sollen.
Dieser Parameter findet nur Anwendung, wenn der Parameter Metadatenformat auf Beschriftete Kacheln oder ImageNet festgelegt ist und eine Eingabe-Feature-Class oder ein klassifiziertes Eingabe-Raster angegeben wurde. |
Bezugssystem | Gibt den Typ des Bezugssystems an, das zum Interpretieren des Eingabebildes verwendet wird. Das angegebene Bezugssystem muss mit dem Bezugssystem übereinstimmen, das für das Training des Deep-Learning-Modells verwendet wurde.
|
Zusätzliches Eingabe-Raster | Eine zusätzliche Eingabequelle aus Bilddaten für Bild-zu-Bild-Übersetzungsmethoden. Dieser Parameter ist gültig, wenn der Parameter Metadatenformat auf Klassifizierte Kacheln, Kacheln exportieren oder CycleGAN festgelegt wurde. |
Die exportierten Trainingsdaten können jetzt in einem Deep-Learning-Modell verwendet werden.