Mit der Image Analyst-Lizenz verfügbar.
Mit der Spatial Analyst-Lizenz verfügbar.
Klassifizieren eines Bildes
Mit dem Werkzeug Klassifizieren können Sie zwischen unüberwachter und überwachter Klassifizierung wählen, wenn Sie Pixel oder Objekte in einem Raster-Dataset klassifizieren. Um das Werkzeug Klassifizieren anzuzeigen, wählen Sie das zu klassifizierende Raster im Bereich Inhalt aus, und klicken Sie dann auf der Registerkarte Bilddaten auf den Dropdown-Pfeil Klassifizierungswerkzeuge.
Für die überwachte Klassifizierung müssen Sie eine Datei mit Trainingsgebieten angeben. Sie können ein Trainingsgebiet mit dem Trainingsgebiet-Manager in der Dropdown-Liste Klassifizierungswerkzeuge erstellen oder eine vorhandene Datei mit Trainingsgebieten auswählen. Die Trainingsgebiete können in einer Shapefile oder einer Feature-Class enthalten sein. In der Trainingsgebiet-Datei werden die folgenden Feldnamen benötigt:
- classname: Ein Textfeld, das den Namen der Klassenkategorie angibt.
- classvalue: Ein "Long Integer"-Feld, das den ganzzahligen Wert für die einzelnen Klassenkategorien enthält.
Für eine objektbasierte Bildanalyse müssen Sie ein segmentiertes Bild angeben. Sie können ein segmentiertes Bild erstellen, indem Sie das Werkzeug Segmentierung in der Dropdown-Liste Klassifizierungswerkzeuge verwenden.
Es sind fünf Klassifikatoren zum Klassifizieren Ihrer Daten verfügbar:
- ISO-Cluster: Der ISO-Cluster-Klassifikator führt eine unüberwachte Klassifizierung aus. Dieser Klassifikator kann große segmentierte Bilder verarbeiten, deren Attributtabelle sehr umfangreich sein kann. Außerdem akzeptiert das Werkzeug von Drittanwendungen segmentierte RGB-Raster. Das Werkzeug verarbeitet standardmäßige von Esri unterstützte Rasterdateien sowie segmentierte Raster-Datasets.
- Maximum Likelihood: Der Maximum-Likelihood-Klassifikator ist eine herkömmliche Methode zur Bildklassifizierung. Sie basiert auf zwei Grundsätzen: normal verteilte Pixel in jedem Klassenbeispiel des multidimensionalen Raumes und Bayes' Satz der Entscheidungsfindung.
- Random Trees: Der Random Trees-Klassifikator ist ein leistungsstarkes Bildklassifizierungsverfahren, das gegen Überanpassung beständig ist und mit segmentierten Bildern und anderen Zusatz-Raster-Datasets zusammenarbeiten kann. Für die Eingabe von Standardbildern akzeptiert das Werkzeug Multiband-Bilddaten mit beliebiger Bittiefe. Dabei erfolgt die Random Trees-Klassifizierung auf Grundlage der Eingabe-Trainings-Feature-Datei auf Pixelbasis.
- Support Vector Machine (SVM): Mit dem SVM-Klassifikator steht eine leistungsfähige Methode für die überwachte Klassifizierung zur Verfügung, mit der sich eine segmentierte Raster-Eingabe oder ein Standardbild verarbeiten lassen. Er ist weniger anfällig für Rauschen, korrelierte Bänder oder eine unausgewogene Anzahl oder Größe von Training-Sites in der jeweiligen Klasse. Dies ist eine Klassifizierungsmethode, die von Forschern häufig genutzt wird.
- "Nächste Nachbarn (K)" trainieren: Der Klassifikator "Nächste Nachbarn (K)" ist eine nichtparametrische Klassifizierungsmethode, bei der ein Pixel oder ein Segment nach der relativen Mehrheit der umliegenden Nachbarn klassifiziert wird. K ist die definierte Anzahl der Nachbarn bei der Abstimmung.
Die im Werkzeug Bildklassifizierung verfügbaren Klassifikatortypen werden nachfolgend beschrieben.
ISO-Cluster
Führen Sie eine unüberwachte Klassifizierung mittels ISO-Cluster-Algorithmus durch, wobei die Eigenschaften der natürlichen Gruppierungen von Zellen im multidimensionalen Attributraum festgelegt werden.
Parametername | Beschreibung |
---|---|
Maximale Anzahl der Klassen | Maximale Anzahl gewünschter Klassen für die Gruppierung von Pixeln oder Segmenten. Dieser Wert sollte basierend auf der Anzahl der Klassen in Ihrer Legende festgelegt werden. Sie erhalten möglicherweise weniger Klassen als Sie für diesen Parameter angegeben haben. Falls Sie mehr benötigen, erhöhen Sie diesen Wert, und aggregieren Sie Klassen, nachdem Sie den Trainingsvorgang abgeschlossen haben. |
Maximale Anzahl der Iterationen | Die maximale Anzahl von Iterationen für die Ausführung der Cluster-Bildung Der empfohlene Wertebereich ist 10 bis 20 Iterationen. Wenn dieser Wert erhöht wird, steigt die Verarbeitungszeit linear an. |
Maximale Anzahl der Cluster-Zusammenführungen pro Iteration | Die maximal zulässige Anzahl der Cluster-Zusammenführungen. Durch Erhöhen der Anzahl der Zusammenführungen wird die Anzahl der erstellten Klassen reduziert. Ein niedrigerer Wert führt zu mehr Klassen. |
Maximaler Zusammenführungsabstand | Durch Erhöhen der Entfernung können mehr Cluster zusammengeführt werden, sodass die Anzahl der Klassen reduziert wird. Ein niedrigerer Wert führt zu mehr Klassen. Die Entfernung ist spektral und basiert auf RGB-Farbe. Die Entfernung zwischen einem Pixel mit einem RGB-Wert von 100, 100, 100 hat eine Entfernung von 50 von einem Pixel mit einem RGB-Wert von 100, 130, 120. Obwohl Sie hierfür einen beliebigen Wert festlegen können, liefern Werte von 0 bis 5 die besten Ergebnisse. |
Minimale Anzahl von Stichproben pro Cluster | Die minimale Anzahl von Pixeln oder Segmenten in einem gültigen Cluster bzw. einer gültigen Klasse Der Standardwert 20 hat sich bei der Erstellung statistisch signifikanter Klassen als effektiv herausgestellt. Sie können diese Anzahl erhöhen, um robustere Klassen zu erzielen. Hierdurch kann jedoch die Gesamtzahl der erstellten Klassen begrenzt werden. |
Sprungfaktor | Anzahl der zu überspringenden Pixel für die Eingabe eines Pixelbilds Wenn das segmentierte Bild eine Eingabe ist, geben Sie die Anzahl der zu überspringenden Segmente an. |
Segmentiertes Bild | Integrieren Sie optional ein segmentiertes Bild, um eine objektbasierte Klassifizierung durchzuführen. |
Segmentattribute | Wenn Sie ein segmentiertes Bild verwenden, können Sie festlegen, welche Attribute aus dem segmentierten Bild verwendet werden sollen:
|
Ausgabe-Klassifikations-Dataset | Wählen Sie den Namen und das Ausgabeverzeichnis für die klassifizierte Ausgabe aus. |
Klassifizierte Ausgabe-Definitionsdatei | Dies ist eine JSON-Datei, die Attributinformationen, Statistiken, Hyperebenenvektoren und weitere für den Klassifikator erforderliche Daten enthält. Es wird eine Datei mit der Erweiterung .ecd erstellt. |
Maximum Likelihood
Führen Sie eine Maximum-Likelihood-Klassifizierung durch, die auf zwei Grundsätzen basiert: normal verteilte Pixel in jedem Klassenbeispiel des multidimensionalen Raumes und Bayes' Satz der Entscheidungsfindung.
Parametername | Beschreibung |
---|---|
Trainingsgebiete | Wählen Sie die Trainingsgebietdatei bzw. den Trainingsgebiet-Layer aus, der Ihre Training-Sites abgrenzt. Ihre Trainingsgebiete können entweder in Shapefiles oder in Feature-Classes enthalten sein. |
Segmentiertes Bild | Integrieren Sie optional ein segmentiertes Bild, um eine objektbasierte Klassifizierung durchzuführen. |
Segmentattribute | Wenn Sie ein segmentiertes Bild verwenden, können Sie festlegen, welche Attribute aus dem segmentierten Bild verwendet werden sollen:
|
Ausgabe-Klassifikations-Dataset | Wählen Sie den Namen und das Ausgabeverzeichnis für die klassifizierte Ausgabe aus. |
Klassifizierte Ausgabe-Definitionsdatei | Dies ist eine JSON-Datei, die Attributinformationen, Statistiken, Hyperebenenvektoren und weitere für den Klassifikator erforderliche Daten enthält. Es wird eine Datei mit der Erweiterung .ecd erstellt. |
Random Trees
Führen Sie eine Random Trees-Klassifizierung durch, die mehrere Entscheidungsstrukturen verwendet, die für die Verwendung kleiner Abweichungen derselben Trainingsdaten trainiert sind. Beim Klassifizieren eines Beispiels entscheidet die Mehrheit der Stimmen dieser trainierten Strukturen über die Ausgabeklasse. Diese Gruppe von Strukturen ist weniger anfällig für eine Überanpassung als eine einzelne Struktur.
Parametername | Beschreibung |
---|---|
Trainingsgebiete | Wählen Sie die Trainingsgebietdatei bzw. den Trainingsgebiet-Layer aus, der Ihre Training-Sites abgrenzt. Ihre Trainingsgebiete können entweder in Shapefiles oder in Feature-Classes enthalten sein. |
Maximale Anzahl der Bäume | Die maximale Anzahl von Strukturen im Forest. Wenn die Anzahl der Strukturen erhöht wird, führt dies zu höheren Genauigkeitsraten, obgleich sich diese Verbesserung nicht weiter verändert. Die Anzahl der Strukturen erhöht die Verarbeitungszeit linear. |
Maximale Strukturtiefe | Die maximale Tiefe jeder Struktur im Forest. Tiefe ist ein Synonym für die Anzahl der Regeln, die jede Struktur erstellen darf, um zu einer Entscheidung zu kommen. Strukturen können die Tiefe dieser Einstellung nicht überschreiten. |
Maximale Anzahl der Beispiele pro Klasse | Die maximale Anzahl von Beispielen, die zum Definieren der jeweiligen Klasse verwendet wird. Empfehlenswert ist ein Standardwert von 1000, wenn es sich bei den Eingaben um unsegmentierte Raster handelt. Ein Wert kleiner oder gleich 0 bedeutet, dass zum Trainieren des Klassifikators alle in den Training-Sites enthaltenen Beispiele verwendet werden. |
Segmentiertes Bild | Integrieren Sie optional ein segmentiertes Bild, um eine objektbasierte Klassifizierung durchzuführen. |
Segmentattribute | Wenn Sie ein segmentiertes Bild verwenden, können Sie festlegen, welche Attribute aus dem segmentierten Bild verwendet werden sollen:
|
Ausgabe-Klassifikations-Dataset | Wählen Sie den Namen und das Ausgabeverzeichnis für die klassifizierte Ausgabe aus. |
Klassifizierte Ausgabe-Definitionsdatei | Dies ist eine JSON-Datei, die Attributinformationen, Statistiken, Hyperebenenvektoren und weitere für den Klassifikator erforderliche Daten enthält. Es wird eine Datei mit der Erweiterung .ecd erstellt. |
Support Vector Machine
Führen Sie eine Support Vector Machine-Klassifizierung durch, bei der Ihre Eingabedatenvektoren in einem Feature-Raum mit einer höheren Dimension dargestellt werden, um die Daten optimal in die verschiedenen Klassen zu trennen. Support Vector Machine kann große Bilder verarbeiten, und diese Klassifizierung ist weniger anfällig für Rauschen, korrelierte Bänder oder eine unausgewogene Anzahl oder Größe von Training-Sites in der jeweiligen Klasse.
Parametername | Beschreibung |
---|---|
Trainingsgebiete | Wählen Sie die Trainingsgebietdatei bzw. den Trainingsgebiet-Layer aus, der Ihre Training-Sites abgrenzt. Ihre Trainingsgebiete können entweder in Shapefiles oder in Feature-Classes enthalten sein. |
Maximale Anzahl der Beispiele pro Klasse | Die maximale Anzahl von Beispielen, die zum Definieren der jeweiligen Klasse verwendet wird. Empfehlenswert ist ein Standardwert von 500, wenn es sich bei den Eingaben um unsegmentierte Raster handelt. Ein Wert kleiner oder gleich 0 bedeutet, dass zum Trainieren des Klassifikators alle in den Training-Sites enthaltenen Beispiele verwendet werden. |
Segmentiertes Bild | Integrieren Sie optional ein segmentiertes Bild, um eine objektbasierte Klassifizierung durchzuführen. |
Segmentattribute | Wenn Sie ein segmentiertes Bild verwenden, können Sie festlegen, welche Attribute aus dem segmentierten Bild verwendet werden sollen:
|
Ausgabe-Klassifikations-Dataset | Wählen Sie den Namen und das Ausgabeverzeichnis für die klassifizierte Ausgabe aus. |
Klassifizierte Ausgabe-Definitionsdatei | Dies ist eine JSON-Datei, die Attributinformationen, Statistiken, Hyperebenenvektoren und weitere für den Klassifikator erforderliche Daten enthält. Es wird eine Datei mit der Erweiterung .ecd erstellt. |
Nächster Nachbar (K)
Führen Sie eine nichtparametrische Klassifizierungsmethode durch, bei der ein Pixel oder ein Segment nach der relativen Mehrheit der umliegenden Nachbarn klassifiziert wird. K ist die definierte Anzahl der Nachbarn bei der Abstimmung.
Parametername | Beschreibung |
---|---|
Trainingsgebiete | Wählen Sie die Trainingsgebietdatei bzw. den Trainingsgebiet-Layer aus, der Ihre Training-Sites abgrenzt. Ihre Trainingsgebiete können entweder in Shapefiles oder in Feature-Classes enthalten sein. |
Dimensionswertefeld | Enthält Dimensionswerte in der Eingabe-Trainingsgebiet-Feature-Class. Dieser Parameter ist erforderlich, um mit dem Veränderungsanalyse-Raster, das vom Werkzeug Veränderungen mit CCDC analysieren ausgegeben wird, eine Zeitserie von Raster-Daten zu klassifizieren. |
Nächste Nachbarn (K) | Die Anzahl der Nachbarn, die beim Suchen nach den einzelnen Pixeln oder Segmenten verwendet werden sollen. Je höher die Anzahl der Nachbarn ist, desto geringer ist der Einfluss der einzelnen Nachbarn auf das Ergebnis der Klassifizierung. Der Standardwert ist 1. |
Maximale Anzahl der Beispiele pro Klasse | Die maximale Anzahl der Trainingsgebiete, die für jede Klasse verwendet werden sollen. Empfehlenswert ist ein Standardwert von 1000, wenn es sich bei den Eingaben um unsegmentierte Raster handelt. Ein Wert kleiner oder gleich 0 bedeutet, dass zum Trainieren des Klassifikators alle in den Training-Sites enthaltenen Stichproben verwendet werden. |
Segmentiertes Bild | Integrieren Sie optional ein segmentiertes Bild, um eine objektbasierte Klassifizierung durchzuführen. |
Segmentattribute | Wenn Sie ein segmentiertes Bild verwenden, können Sie festlegen, welche Attribute aus dem segmentierten Bild verwendet werden sollen:
|
Ausgabe-Klassifikations-Dataset | Wählen Sie den Namen und das Ausgabeverzeichnis für die klassifizierte Ausgabe aus. |
Klassifizierte Ausgabe-Definitionsdatei | Dies ist eine JSON-Datei, die Attributinformationen, Statistiken, Hyperebenenvektoren und weitere für den Klassifikator erforderliche Daten enthält. Es wird eine Datei mit der Erweiterung .ecd erstellt. |
Zusätzliche Methoden für die Klassifizierung und Mustererkennung
Die zusätzlichen Methoden für die Klassifizierung und Mustererkennung in der Toolbox "Image Analyst" werden nachfolgend beschrieben.
- Raster mit Spektren klassifizieren: Klassifiziert ein Multiband-Raster-Dataset mit Spektralabgleichsverfahren basierend auf der Divergenz der Vektorwinkel oder Spektralinformationen zwischen dem Eingabebild und dem Referenz-Spektralprofil. Die Ausgaben sind das klassifizierte Ausgabe-Raster, die Ausgabe-Klassifikatordefinitionsdatei (.ecd) und das Ausgabe-Punktzahl-Raster. Das Ausgabe-Punktzahl-Raster ist ein Multiband-Raster, in dem die Abgleichsergebnisse für jedes End-Mitglied gespeichert werden.
- Regressionsmodell "Random Trees" trainieren: Modelliert die Beziehung zwischen erklärenden Variablen (unabhängigen Variablen) und einem Ziel-Dataset (abhängige Variable). Dieses Werkzeug kann zum Trainieren mit verschiedensten Datentypen verwendet werden. Die Eingabe-Raster (die erklärenden Variablen) können ein einzelnes Raster oder eine Liste mehrerer Raster, ein Einzelband oder ein Multiband, in dem jedes Band eine erklärende Variable ist, ein multidimensionales Raster, in dem die Variablen im Raster die erklärenden Variablen sind, oder eine Kombination mehrerer Datenypen sein.
Die Ausgaben sind:
- Eine Tabelle mit Informationen, die die Bedeutung der einzelnen im Modell verwendeten erklärenden Variablen beschreiben.
- Scatterplots von Trainingsdaten, Testdaten und Positionstestdaten.
- Die Regressionsdefinitionsdatei (.ecd), die Attributinformationen, Statistiken oder weitere Informationen für den Klassifikator enthält.
- Mit Regressionsmodell vorhersagen: Verwendet die Ausgabe des Werkzeugs Regressionsmodell "Random Trees" trainieren, um Datenwerte vorherzusagen. Die Ausgabe ist ein Raster der vorhergesagten Werte.
Verwandte Themen
- Funktion "Klassifizieren"
- Raster klassifizieren
- ISO-Cluster-Klassifikator trainieren
- Maximum-Likelihood-Klassifikator trainieren
- Random Trees-Klassifikator trainieren
- Support Vector Machine-Klassifikator trainieren
- Trainingsgebiete aus Ursprungspunkten generieren
- Trainingsgebiete prüfen
- Funktion "Mean Shift-Segmentierung"
- Funktion "ML-Klassifizierung"
- Segmentierung und Klassifizierung
- Regressionsmodell "Random Trees" trainieren
- Mit Regressionsmodell vorhersagen