Calculer la matrice de confusion (Image Analyst)

Disponible avec une licence Spatial Analyst.

Disponible avec une licence Image Analyst.

Synthèse

Calcule une matrice de confusion avec des erreurs d’omission et de commission et déduit un indice Kappa d’accord, une intersection sur union (IoU) et une précision globale entre la carte classée et les données de référence.

Cet outil utilise les sorties de l’outil Créer des points d’évaluation de la précision ou de l’outilMettre à jour les points d’évaluation de la précision.

Utilisation

  • Cet outil calcule une matrice de confusion à l’aide des points d’évaluation de la précision. Les points d’évaluation de la précision sont générés par l’outil Créer des points d’évaluation de la précision et mis à jour par l’outil Mettre à jour les points d’évaluation de la précision. Ces deux outils vérifient que chaque point aura des valeurs de classe valides pour les champs Classified et GrndTruth. Les champs Classified et GrndTruth sont tous les deux des champs de type entier long. L’outil calcule la précision des utilisateurs et des producteurs de chaque classe, ainsi qu’un indice Kappa d’accord global. Ces taux de précision sont compris entre 0 et 1, 1 représentant une précision de 100 pour cent. Voici un exemple de matrice de confusion :

    c_1c_2c_3TotalU_AccuracyKappa

    c_1

    49

    4

    4

    57

    0.8594

    0

    c_2

    2

    40

    2

    44

    0.9091

    0

    c_3

    3

    3

    59

    65

    0.9077

    0

    Total

    54

    47

    65

    166

    0

    0

    P_Accuracy

    0.9074

    0.8511

    0.9077

    0

    0.8916

    0

    Kappa

    0

    0

    0

    0

    0

    0.8357

    Exemple de matrice de confusion

  • La précision des utilisateurs montre les faux positifs, où les pixels sont incorrectement classés comme une classe connue alors qu’ils devraient être classés autrement. Cela est le cas par exemple lorsque l’image classée identifie un pixel comme imperméable, mais que la référence l’identifie comme une forêt. La classe imperméable comporte des pixels supplémentaires qui ne devraient pas être présents d’après les données de référence.

    La précision de l’utilisateur est également désignée sous le nom d’erreurs de commission ou d’erreur de type 1. Les données qui permettent de calculer ce taux d’erreur sont lues à partir des lignes de la table.

    La ligne Total montre le nombre de points qui devraient être identifiés comme une classe donnée d’après les données de référence.

  • La précision des producteurs est un faux négatif, où les pixels d’une classe connue sont classés ailleurs que dans cette classe. Cela est le cas par exemple lorsque l’image classée identifie un pixel comme une forêt, alors qu’il devrait être imperméable. Dans ce cas, la classe imperméable ne comporte pas les pixels qui devraient être présents d’après les données de référence.

    La précision des producteurs est également désignée sous le nom d’erreurs d’omission ou d’erreur de type 2. Les données qui permettent de calculer ce taux d’erreur sont lues dans les colonnes de la table.

    La colonne Total montre le nombre de points qui ont été identifiés comme une classe donnée d’après la carte classée.

  • L’indice Kappa d’accord offre une évaluation globale de la précision de la classification.

  • L’intersection sur union (IoU) est la surface de superposition entre la segmentation prévue et la réalité du terrain divisée par la surface d’union entre la segmentation prévue et la réalité du terrain. La valeur IoU est calculée pour chaque classe.

Paramètres

ÉtiquetteExplicationType de données
Points d’évaluation de la précision en entrée

La classe d’entités des points d’évaluation de la précision créée à partir de l’outil Créer des points d’évaluation de la précision, contenant les champs Classified et GrndTruth. Les champs Classified et GrndTruth sont tous les deux des champs de type entier long.

Feature Layer
Matrice de confusion en sortie

Le nom du fichier en sortie de la matrice de confusion au format tabulaire.

Le format de la table est déterminé par l’emplacement et le chemin d’accès en sortie. Par défaut, la sortie sera une table de géodatabase. Si le chemin ne se trouve pas dans une géodatabase, spécifiez une extension .dbf pour l’enregistrer au format dBASE.

Table

ComputeConfusionMatrix(in_accuracy_assessment_points, out_confusion_matrix)
NomExplicationType de données
in_accuracy_assessment_points

La classe d’entités des points d’évaluation de la précision créée à partir de l’outil Créer des points d’évaluation de la précision, contenant les champs Classified et GrndTruth. Les champs Classified et GrndTruth sont tous les deux des champs de type entier long.

Feature Layer
out_confusion_matrix

Le nom du fichier en sortie de la matrice de confusion au format tabulaire.

Le format de la table est déterminé par l’emplacement et le chemin d’accès en sortie. Par défaut, la sortie sera une table de géodatabase. Si le chemin ne se trouve pas dans une géodatabase, spécifiez une extension .dbf pour l’enregistrer au format dBASE.

Table

Exemple de code

Exemple 1 d’utilisation de l’outil ComputeConfusionMatrix (script autonome)

Cet exemple calcule la matrice de confusion en fonction des points d’évaluation de la précision.

import arcpy
from arcpy.ia import *

# Check out the ArcGIS Image Analyst extension license
arcpy.CheckOutExtension("ImageAnalyst")

accuracy_assessment_points = "c:test\\aapnt2.shp"
confusion_matrix = "c:\\test\\confm.dbf"

ComputeConfusionMatrix(accuracy_assessment_points, confusion_matrix)

Environnements

Cet outil n’utilise pas d’environnement de géotraitement.

Informations de licence

  • Basic: Nécessite Image Analyst ou Spatial Analyst
  • Standard: Nécessite Image Analyst ou Spatial Analyst
  • Advanced: Nécessite Image Analyst ou Spatial Analyst

Rubriques connexes