Mit der Spatial Analyst-Lizenz verfügbar.
Mit der Image Analyst-Lizenz verfügbar.
Bewerten der Genauigkeit Ihrer Klassifizierung
Die Genauigkeitsbewertung verwendet ein Referenz-Dataset, um die Genauigkeit Ihres klassifizierten Ergebnisses zu bestimmen. Die Werte Ihres Referenz-Datasets müssen mit dem Schema übereinstimmen. Referenzdaten können in verschiedenen Formaten vorliegen:
- ein Raster-Dataset, das ein klassifiziertes Bild ist
- Eine Polygon-Feature-Class oder ein Shapefile. Das Format der Feature-Class-Attributtabelle muss mit den Trainingsgebieten übereinstimmen. Um dies sicherzustellen, können Sie das Referenz-Dataset mit dem Trainingsgebiet-Manager erstellen, um das Dataset zu lesen und zu schreiben.
- Eine Punkt-Feature-Class oder ein Shapefile Das Format muss mit der Ausgabe des Werkzeugs Genauigkeitsbewertung erstellen übereinstimmen. Wenn Sie eine vorhandene Datei verwenden und in das entsprechende Format konvertieren möchten, verwenden Sie das Geoverarbeitungswerkzeug Punkte für Genauigkeitsbewertung erstellen.
Anzahl der zufälligen Punkte
Die Gesamtzahl der zufälligen Punkte, die generiert werden. Die tatsächliche Anzahl kann je nach Referenzdatenstrategie und Anzahl der Klassen höher, jedoch niemals niedriger sein als diese Zahl. Die Standardanzahl der zu erstellenden zufälligen Punkte ist 500.
Referenzdatenstrategie
Geben Sie an, welche Referenzdatenstrategie verwendet werden soll:
- Stratifizierte Zufallsstichprobe: Erstellen Sie Punkte, die in jeder Klasse zufällig verteilt sind, wobei jede Klasse über eine Anzahl von Punkten proportional zum relativen Bereich verfügt. Dies ist die Standardeinstellung.
- Abgeglichene stratifizierte Zufallsstichprobe: Erstellen Sie die zufällig verteilten Punkte in jeder Klasse, wobei jede Klasse über dieselbe Anzahl von Punkten verfügt.
- Zufallsprinzip: Erstellen Sie Punkte, die im gesamten Bild zufällig verteilt sind.
Interpretieren der Ergebnisse
Nachdem Sie das Werkzeug ausgeführt haben, wird eine grafische Darstellung Ihrer Konfusionsmatrix angezeigt. Zeigen Sie mit der Maus auf eine Zelle, um die Anzahl, die Benutzergenauigkeit, die Erstellergenauigkeit und den FScore-Wert anzuzeigen. Die Kappa-Punktzahl wird ebenfalls am unteren Rand des Bereichs angezeigt. Die Ausgabetabelle wird dem Bereich Inhalt hinzugefügt.
Analysieren der Diagonale
Die Genauigkeit wird von 0 bis 1 dargestellt, wobei 1 einer Genauigkeit von 100 Prozent entspricht. Die Farbpalette reicht von Hell- bis Dunkelblau, wobei die dunkleren Farben eine höhere Genauigkeit darstellen.
Im Gegensatz zur Diagonalen zeigen die Zellen jenseits der Diagonalen Fehler basierend auf Commissions und Omissions an. Omission-Fehler sind falsche positive Ergebnisse, bei denen Pixel fälschlicherweise als eine bekannte Klasse klassifiziert werden, wenn sie als etwas anderes hätten klassifiziert werden müssen. Ein Beispiel hierfür wäre, wenn das klassifizierte Bild anzeigt, dass ein Pixel eine versiegelte Fläche ist, die Überprüfungsdaten jedoch angeben, dass es sich um eine durchlässige Fläche handelt. Die Klasse der versiegelten Fläche verfügt über zusätzliche Pixel, die sie gemäß Überprüfungsdaten nicht aufweisen sollte. Commission-Fehler sind falsche negative Ergebnisse, bei denen Pixel einer bekannten Klasse als etwas anderes klassifiziert werden als diese Klasse. Ein Beispiel hierfür wäre, wenn das klassifizierte Bild angibt, dass es sich bei einem Pixel um Wald handelt, es tatsächlich jedoch eine versiegelte Fläche ist. In diesem Fall fehlen der Klasse der versiegelten Flächen gemäß den Überprüfungsdaten Pixel. Omission-Fehler werden auch als Genauigkeitsfehler des Benutzers oder Fehler 1. Art bezeichnet. Commission-Fehler werden auch als Genauigkeitsfehler des Herstellers oder Fehler 2. Art bezeichnet.
Anzeigen der Ausgabe-Konfusionsmatrix
Wenn Sie die Details des Fehlerberichts anzeigen möchten, können Sie den Bericht im Bereich Inhalt laden und öffnen. Es handelt sich dabei um eine .dbf-Datei, die sich in Ihrem Projekt oder in dem von Ihnen angegebenen Ausgabeordner befindet. Die Konfusionsmatrix-Tabelle enthält die Nutzergenauigkeit (Spalte U_Accuracy) und die Produzentengenauigkeit (Spalte P_Accuracy) für jede Klasse sowie einen allgemeinen statistischen Kappa-Übereinstimmungsindex. Diese Genauigkeitsraten reichen von 0 bis 1, wobei 1 eine Genauigkeit von 100 Prozent darstellt. Nachfolgend finden Sie ein Beispiel für eine Konfusionsmatrix.
c_1 | c_2 | c_3 | Gesamt | U_Accuracy | Kappa | |
c_1 | 49 | 4 | 4 | 57 | 0,8594 | 0 |
c_2 | 2 | 40 | 2 | 44 | 0,9091 | 0 |
c_3 | 3 | 3 | 59 | 65 | 0,9077 | 0 |
Gesamt | 54 | 47 | 65 | 166 | 0 | 0 |
P_Accuracy | 0,9074 | 0,8511 | 0,9077 | 0 | 0,8916 | 0 |
Kappa | 0 | 0 | 0 | 0 | 0 | 0,8357 |
Die Spalte für die Nutzergenauigkeit zeigt falsche positive Ergebnisse oder Omission-Fehler an, wenn Pixel, die als etwas anderes klassifiziert werden sollten, fälschlicherweise als eine bekannte Klasse klassifiziert werden. Ein Beispiel hierfür wäre, wenn das klassifizierte Bild ein Pixel als asphaltierte Fläche, die Referenz es jedoch als Wald identifiziert. Die Asphalt-Klasse verfügt über zusätzliche Pixel, die sie gemäß Referenzdaten nicht aufweisen sollte. Die Nutzergenauigkeit wird auch als Commission-Fehler oder Fehler vom Typ 1 bezeichnet. Die Daten zum Berechnen dieser Fehlerrate werden aus den Zeilen der Tabelle gelesen. Die Zeile Gesamt zeigt die Anzahl der Punkte an, die den Referenzdaten entsprechend als angegebene Klasse hätten identifiziert werden müssen.
Die Spalte für die Produzentengenauigkeit zeigt falsche negative Ergebnisse oder Commission-Fehler an. Die Daten zum Berechnen dieser Fehlerrate werden in den Spalten der Tabelle gelesen. Die Spalte Gesamt zeigt die Anzahl der Punkte an, die entsprechend der klassifizierten Karte als angegebene Klasse identifiziert wurden.
Die Kappa-Übereinstimmungsstatistik liefert eine Gesamtbewertung der Genauigkeit der Klassifizierung.