Mit der Spatial Analyst-Lizenz verfügbar.
Mit der Image Analyst-Lizenz verfügbar.
Zusammenfassung
Berechnet eine Konfusionsmatrix mit Unterlassungs- und Überlassungsfehlern und leitet anschließend einen Kappa-Übereinstimmungsindex und eine Gesamtgenauigkeit zwischen der klassifizierten Karte und den Referenzdaten ab.
Dieses Werkzeug verwendet die Ausgaben aus dem Werkzeug Punkte für Genauigkeitsbewertung erstellen oder aus dem Werkzeug Punkte für Genauigkeitsbewertung aktualisieren.
Verwendung
Dieses Werkzeug berechnet eine Konfusionsmatrix anhand der Punkte für die Genauigkeitsbewertung. Die Punkte für die Genauigkeitsbewertung werden vom Werkzeug Punkte für Genauigkeitsbewertung erstellen oder vom Werkzeug Punkte für Genauigkeitsbewertung aktualisieren erstellt. Mit diesen beiden Werkzeugen wird sichergestellt, dass jeder Punkt über gültige Klassenwerte für die Felder CLASSIFIED und GROUND_TRUTH verfügt. Das Werkzeug berechnet die Nutzer- und Produzentengenauigkeit für jede Klasse sowie einen allgemeinen Kappa-Übereinstimmungindex. Diese Genauigkeitsraten reichen von 0 bis 1, wobei 1 eine Genauigkeit von 100 Prozent darstellt. Nachfolgend finden Sie ein Beispiel für eine Konfusionsmatrix:
c_1
c_2
c_3
Gesamt
U_Accuracy
Kappa
c_1
49
4
4
57
0,8594
0
c_2
2
40
2
44
0,9091
0
c_3
3
3
59
65
0,9077
0
Gesamt
54
47
65
166
0
0
P_Accuracy
0,9074
0,8511
0,9077
0
0,8916
0
Kappa
0
0
0
0
0
0,8357
Beispiel für Konfusionsmatrix Die Nutzergenauigkeit zeigt falsche positive Ergebnisse, bei denen Pixel als bekannte Klasse falsch klassifiziert werden, wenn sie als etwas anderes hätten klassifiziert werden sollen. Ein Beispiel hierfür wäre, wenn das klassifizierte Bild ein Pixel als undurchlässig, die Referenz es jedoch als Wald identifiziert. Die undurchlässige Klasse verfügt über zusätzliche Pixel, die sie gemäß Referenzdaten nicht aufweisen sollte.
Die Nutzergenauigkeit wird auch als Überlassungsfehler oder Fehler vom Typ 1 bezeichnet. Die Daten zum Berechnen dieser Fehlerrate werden aus den Zeilen der Tabelle gelesen.
Die Zeile Total zeigt die Anzahl der Punkte an, die den Referenzdaten entsprechend als angegebene Klasse hätten identifiziert werden müssen.
Die Produzentengenauigkeit ist ein falsches negatives Ergebnis, bei dem Pixel einer bekannten Klasse als etwas anderes klassifiziert werden als diese Klasse. Ein Beispiel hierfür wäre, wenn das klassifizierte Bild ein Pixel als Wald identifiziert, es tatsächlich jedoch undurchlässig ist. In diesem Fall fehlen der undurchlässigen Klasse gemäß den Referenzdaten Pixel.
Die Produzentengenauigkeit wird auch als Unterlassungsfehler oder Fehler vom Typ 2 bezeichnet. Die Daten zum Berechnen dieser Fehlerrate werden in den Spalten der Tabelle gelesen.
Die Spalte Total zeigt die Anzahl der Punkte an, die entsprechend der klassifizierten Karte als angegebene Klasse identifiziert wurden.
Der Kappa-Übereinstimmungindex liefert eine Gesamtbewertung der Genauigkeit der Klassifizierung.
Syntax
ComputeConfusionMatrix(in_accuracy_assessment_points, out_confusion_matrix)
Parameter | Erklärung | Datentyp |
in_accuracy_assessment_points | Die mit dem Werkzeug Punkte für Genauigkeitsbewertung erstellen erstellte Point-Feature-Class für Genauigkeitsbewertung mit den Feldern CLASSIFIED und GROUND_TRUTH. | Feature Layer |
out_confusion_matrix | Der Name der Ausgabedatei der Konfusionsmatrix im Tabellenformat. Das Format der Tabelle wird durch das Ausgabeverzeichnis und den Ausgabepfad bestimmt. Die Ausgabe ist standardmäßig eine Geodatabase-Tabelle. Wenn der Pfad nicht in einer Geodatabase enthalten ist, geben Sie eine .dbf-Erweiterung an, um ihn im dBASE-Format zu speichern. | Table |
Codebeispiel
In diesem Beispiel wird die Konfusionsmatrix basierend auf Punkten für die Genauigkeitsbewertung berechnet.
import arcpy
from arcpy.sa import *
arcpy.gp.ComputeConfusionMatrix("aapnt2.shp", "confm.dbf")
Umgebungen
Lizenzinformationen
- Basic: Erfordert Spatial Analyst oder Image Analyst
- Standard: Erfordert Spatial Analyst oder Image Analyst
- Advanced: Erfordert Spatial Analyst oder Image Analyst