Assistant de classification d'images

Disponible avec une licence Image Analyst.

Disponible avec une licence Spatial Analyst.

La classification d’images est le traitement consistant à extraire des classes d’informations, telles que les catégories d’occupation du sol, à partir des images de télédétection multibandes. Le processus comporte de nombreuses étapes entre le prétraitement et la segmentation, la sélection d’échantillons d’entraînement, l’entraînement, la classification et l’évaluation de la précision. Chaque étape peut être itérative et le traitement exige des connaissances approfondies des images en entrée, de la structure de classification, des méthodes de classification, des résultats attendus et de la précision acceptable.

Assistant de classification

L’assistant de classification guide les utilisateurs à travers le processus de classification, du début à la fin. L’assistant de classification (option Classification Wizard) offre un processus guidé composé des meilleures pratiques et d’une expérience utilisateur simplifiée. Vous pouvez ainsi effectuer la classification sans omettre aucune étape. Les utilisateurs expérimentés peuvent afficher des outils individuels accessibles dans la liste déroulante Classification Tools (Outils de classification) du groupe Image Classification (Classification d’image). Ces outils sont les mêmes que ceux inclus dans l’assistant de classification.

L’assistant de classification se trouve dans le groupe Image Classification (Classification d’image) de l’onglet Imagery (Imagerie). Sélectionnez le jeu de données raster à classer dans la fenêtre Contents (Contenu) pour afficher l’onglet Imagery (Imagerie) et vous assurer de travailler dans une carte 2D. L’assistant de classification est désactivé si la carte active est une scène 3D ou si l’image mise en évidence n’est pas une image multibande.

Configurer

Cliquez sur le bouton Classification Wizard (Assistant de classification) Assistant de classification sous l’onglet Imagery (Imagerie) pour ouvrir et ancrer l’assistant. La première page est la page Configure (Configurer) dans laquelle vous configurez votre projet de classification. Les paramètres définis ici déterminent les étapes et les fonctions disponibles dans les pages suivantes de l’assistant.

Page Image Classification Wizard (Assistant de classification d’image)

Méthode de classification

Il existe deux options pour appliquer la méthode à utiliser pour classer votre imagerie.

Nom de l’optionDescription

Non assisté

Le résultat de la classification est déterminé sans échantillons d’entraînement. Les pixels ou les segments sont attribués de manière statistique à une classe en fonction du classificateur d’agrégats ISO. Les pixels sont rassemblés en classes en fonction de leurs caractéristiques spectrales et spatiales. Vous indiquez le nombre de classes à calculer ; les classes sont identifiées et combinées à l’issue de la classification.

Supervisé

Le résultat de la classification dépend des échantillons d’entraînement fournis. Les échantillons d’entraînement sont des sites représentatifs de toutes les classes que vous voulez classer dans l’image. Ces sites sont conservés dans une classe d’entités ponctuelles ou surfaciques avec les noms de classe correspondants à chaque entité. Ils sont créés ou sélectionnés en fonction des connaissances de l’utilisateur des données source et des résultats attendus. Tous les autres pixels de l’image sont classés à l’aide des caractéristiques des échantillons d’entraînement. Il s’agit de l’option par défaut.

Type de classification

Il existe deux options pour le type de classification à utiliser pour les classifications assistée et non assistée.

Nom de l’optionDescription

Basé sur des pixels

La classification est effectuée par pixel : les caractéristiques spectrales d’un pixel détermine la classe à laquelle il est affecté. Les caractéristiques des pixels voisins ne sont pas prises en compte durant cette approche. On considère qu’il s’agit de la méthode de classification la plus traditionnelle et peut entraîner un effet de chatoiement (ou granularité) dans l’image classée.

Basé sur des objets

La classification est réalisée sur les voisinages localisés des pixels, regroupés ensemble via un traitement appelé segmentation. La segmentation tient compte des caractéristiques de couleur et de forme lors du regroupement des pixels en objets. Les objets obtenus à partir de la segmentation ressemblent davantage aux entités réelles et génèrent des résultats de classification plus propres. Il s’agit de l’option par défaut.

Structure de classification

Une structure de classification détermine le nombre et les types de classes à utiliser pour la classification assistée. Les structures peuvent être hiérarchiques, c’est-à-dire qu’elles comportent des classes qui détiennent des sous-classes. Vous pouvez, par exemple, spécifier une classe Forêt contenant les sous-classes regrouper Arbres à feuilles caduques et Arbres à feuilles persistantes. Une structure est enregistrée dans un fichier de structure de classification Esri (.ecs), qui applique la syntaxe JSON. Vous pouvez sélectionner l’une des options suivantes pour spécifier la structure de classification :

  • Accéder à une structure existante.
  • Générer une structure à partir d’une classe d’entités existante représentant les échantillons d’entraînement. Sélectionnez cette option si vous prévoyez de faire référence à un jeu de données d’échantillons d’entraînement.
  • Générer une structure à partir d’une carte de classe raster existante.
  • Utiliser la structure par défaut du National Land Cover pour l’Amérique du Nord. Si vous voulez créer une structure personnalisée, sélectionnez cette option et modifiez-la sur la page Training Sample Manager (Gestionnaire d’échantillons d’entraînement).

Emplacement en sortie

Il s’agit de l’espace de travail ou du répertoire qui stocke toutes les sorties créées dans l’assistant de classification, notamment les données d’entraînement, les images segmentées, les structures personnalisées, les informations d’évaluation de la précision et les résultats de classification obtenus.

Remarque :

Tous les fichiers intermédiaires créés avec Classification Wizard (Assistant de classification) sont placés dans le répertoire temporaire de l’utilisateur. Son chemin d’accès est généralement C:\Windows\Temp, mais il peut être différent selon le système d’exploitation et les autorisations d’accès.

Image segmentée

Cette option n’est disponible que si vous avez sélectionné Object based (Basé sur des objets) pour Classification Type (Type de classification). Si vous avez déjà créé une image segmentée, vous pouvez faire référence au jeu de données existant. Sinon, vous allez créer une image segmentée au cours de l’étape de la page suivante.

Remarque :

Si le raster segmenté n’a pas été créé précédemment, il sera créé avant l’entraînement du classificateur. Il s’agit d’une opération qui sollicite beaucoup les ressources de l’ordinateur et la création du jeu de données raster segmenté peut prendre un certain temps. Dans le cas de jeux de données volumineux, il est conseillé de créer le raster segmenté et de le spécifier ensuite en entrée lorsque vous configurez votre projet de classification.

Echantillons d'apprentissage

Il s’agit de la seule option si vous avez sélectionné Supervised (Assisté) pour Classification Method (Méthode de classification). Vous pouvez créer des échantillons d’entraînement à l’aide de la fenêtre Training Samples Manager (Gestionnaire d’échantillons d’entraînement) à partir de la liste déroulante Classification Tools (Outils de classification) ou fournir un fichier d’échantillons d’entraînement existant. Un shapefile ou une classe d’entités contient les échantillons d’entraînement et doit correspondre à la structure de classification. Les noms de champ suivants sont requis dans le fichier d’échantillons d'apprentissage :

  • classname- zone de texte indiquant le nom de la catégorie de classe
  • classvalue- champ d’entier long contenant la valeur entière de chaque catégorie de classe
Remarque :

Les échantillons d’entraînement créés dans ArcGIS Desktop à l’aide de la barre d’outils Image Classification (Classification d’image) sont pris en charge.

Jeu de données de référence

Si vous voulez évaluer la précision des résultats classés, vous devez fournir un jeu de données de référence. Les données de référence se composent d’entités associées à une localisation et une valeur de classe connues et sont collectées sur le terrain, par l’intermédiaire d’une carte de classe existante, d’une base d’occupation du sol raster ou encore d’images de résolution supérieure. Les résultats de la classification d’image sont comparés à vos données de référence afin d’évaluer la précision. Les classes de votre jeu de données de référence doivent correspondre à la structure de classification.

Les données de référence peuvent utiliser l’un des formats suivants :

  • Jeu de données raster qui est une image classée.
  • Classe d'entités surfaciques ou fichier de formes. Le format de la table attributaire de la classe d'entités doit correspondre à celui des échantillons d'apprentissage. Pour ce faire, vous pouvez créer le jeu de données de référence à l’aide des outils du Training Samples Manager (Gestionnaire d’échantillons d’entraînement).
  • Classe d'entités points ou fichier de formes. Le format doit correspondre à celui de la sortie de l'outil Créer des points d'évaluation de la précision. Si vous utilisez un fichier existant et souhaitez le convertir dans le format approprié, utilisez l'outil de géotraitement Créer des points d'évaluation de la précision.

Segmentation

Cette page est disponible seulement si vous avez sélectionné Object based (Basé sur des objets) comme Classification Type (Type de classification) et n’avez pas spécifié un jeu de données raster de segmentation existant sur la page Configure (Configurer). La segmentation est un composant essentiel du processus de classification de type Object based (Basé sur les objets). Ce processus regroupe les pixels adjacents dont la couleur est similaire et qui présentent certaines caractéristiques de forme.

Trois paramètres contrôlent la segmentation de votre imagerie en objets :

  • Spectral Detail (Détail spectral) — Définissez le niveau d’importance donné aux différences spectrales des entités dans votre imagerie.

    Les valeurs correctes sont comprises entre 1.0 et 20.0. Il convient d’attribuer une valeur élevée lorsque vous souhaitez une classification plus détaillée, c’est-à-dire une classification selon laquelle les entités ayant des caractéristiques spectrales quelque peu similaires doivent être classées dans des classes différentes. Par exemple, avec des valeurs de détail spectral plus élevées dans une scène forestière, vous pouvez bénéficier d’une plus grande différenciation entre les différentes espèces d’arbres.

    Des valeurs inférieures entraînent un lissage plus important des détails de l’image. Si, par exemple, vous désirez classer les toits des bâtiments sans aucun détail sur l’équipement du toit, utilisez une valeur Spectral Detail (Détail spectral) basse.

  • Spatial Detail (Détail spatial) - Définissez le niveau d’importance donné à la proximité entre des entités dans votre imagerie. Les valeurs correctes sont comprises entre 1 et 20. Une valeur plus élevée convient à une scène dans laquelle toutes les entités présentant un intérêt sont petites et agrégées. Des valeurs inférieures engendrent des sorties plus lisses spatialement. Par exemple, dans une scène urbaine, vous pouvez classer des surfaces imperméables à l’aide d’une valeur de détail spatial inférieure, ou classer des bâtiments et des routes en tant que classes séparées à l’aide d’une valeur Spatial Detail (Détail spatial) supérieure.
  • Minimum segment size in pixels (Taille minimale du segment en pixels) - Combinez les segments dont la taille est inférieure à celle-ci avec leur segment voisin le mieux adapté. Cette valeur est directement liée à l’unité cartographique minimale de votre projet.

Vous pouvez utiliser l’option Show Segmented Boundaries Only (Afficher les limites du segment uniquement) pour afficher les segments sous forme de polygones superposés dans votre imagerie.

Utilisez l’outil Swipe (Balayer) dans le groupe Effects (Effets) sous l’onglet Raster Layer (Couche raster) ou Mosaic Layer (Couche raster) pour comparer votre image segmentée avec l’image source. Recommencez la segmentation de manière dynamique en modifiant les paramètres et examinez les résultats en déplaçant la carte et en zoomant dessus. Lorsque vous êtes satisfait de votre image segmentée, cliquez sur Next (Suivant).

Remarque :

L'aperçu est basé sur des fonctions raster qui traitent les pixels actuellement affichés et rééchantillonnés sur la résolution d'affichage. Cela peut entraîner une légère différence entre l'aperçu et le résultat effectivement conservé pour les opérations régionales.

Outils du Gestionnaire d’échantillons d’entraînement

Cette page est seulement disponible si vous avez sélectionné Supervised (Assisté) pour Classification Method (Méthode de classification).

Lorsque la page s’ouvre, la section de gestion des structures apparaît en haut et la structure que vous avez sélectionnée dans la page Configure (Configurer) est automatiquement chargée. Vous pouvez ici créer de nouvelles classes ou supprimer des classes existantes pour personnaliser votre structure. Pour créer une classe parent au niveau le plus élevé, sélectionnez le nom de votre structure et cliquez sur le bouton Add New Class (Ajouter une nouvelle classe). Pour créer une sous-classe, sélectionnez la classe parent et cliquez sur le bouton Add New Class (Ajouter une nouvelle classe). La sous-classe est organisée dans la classe parent. Cliquez avec le bouton droit sur n’importe quelle classe pour mettre à jour les propriétés de la classe.

Gestion de structures du Gestionnaire d’échantillons d’entraînement

La section inférieure de la page présente tous les échantillons d’entraînement de chaque classe. Vous pouvez sélectionner des sites représentatifs, ou des échantillons d’entraînement, pour chaque classe d’occupation du sol dans l’image. Un échantillon d’entraînement possède des informations de localisation (polygone) et une classe d’occupation du sol associée. L’algorithme de classification d’image utilise les échantillons d’entraînement, enregistrés sous forme d’une classe d’entités, pour identifier les classes d’occupation du sol dans l’intégralité de l’image. Si vous avez fourni un jeu de données d’échantillons d’entraînement sur la page Configure (Configurer), vos échantillons d’entraînement sont répertoriés ici.

Vous pouvez voir et gérer les échantillons d’entraînement en les ajoutant, en les regroupant ou en les supprimant. Vous pouvez supprimer les échantillons d’entraînement un par un ou les regrouper en les sélectionnant et en cliquant sur le bouton Delete (Supprimer). Lorsque vous sélectionnez un échantillon d’entraînement, il est sélectionné sur la carte. Double-cliquez sur un échantillon d’entraînement dans la table pour zoomer dessus dans la carte.

Liste des échantillons d’entraînement du Gestionnaire d’échantillons d’entraînement

Pour créer des échantillons d’entraînement, procédez comme suit :

  1. Sélectionnez la classe pour laquelle vous voulez collecter des échantillons d’entraînement dans le gestionnaire de structures.
  2. Sélectionnez un des outils de construction ou utilisez le sélecteur de segment pour commencer à collecter vos échantillons d'apprentissage.
    1. Pour utiliser l’outil Segment Picker (Sélecteur de segment), l’image segmentée doit figurer dans la fenêtre Contents (Contents). Si la fenêtre Contents (Contents) comporte plusieurs couches segmentées, utilisez la liste déroulante pour sélectionner celle à partir de laquelle collecter les échantillons d’entraînement.
    2. Cliquez sur la carte pour ajouter le segment comme échantillon d’entraînement.

    Les échantillons d’entraînement individuels représentant une classe sont énumérés dans le Gestionnaire d’échantillons d’entraînement.

  3. Vous pouvez les organiser en sélectionnant plusieurs échantillons d’entraînement et en les combinant sous le titre d’une classe en cliquant sur le bouton Collapse (Réduire) Fusionner des branches.

Remarque :

La table des échantillons d’entraînement répertorie le nombre d’échantillons définissant chaque classe. Si vous avez utilisé le sélecteur de segment pour collecter vos échantillons d’entraînement, le nombre d’échantillons correspond au nombre de segments que vous avez sélectionnés pour définir la classe. Il est important de se rappeler ce point lorsque vous utilisez un classificateur statistique tel que le classificateur de vraisemblance maximale, car le nombre de segments représente le nombre total d’échantillons. Si, par exemple, huit segments ont été collectés comme échantillons d’entraînement pour une classe, ce nombre risque de ne pas être statistiquement significatif pour une classification fiable. Or, si vous avez collecté les mêmes échantillons d’entraînement sous forme de pixels, chaque échantillon d’entraînement peut être représenté par des centaines ou des milliers de pixels, ce qui correspond à un nombre statistiquement significatif d’échantillons.

La table des échantillons d’entraînement indique le pourcentage de pixels représentant une classe comparé au nombre total de pixels représentant l’ensemble des classes. Ce pourcentage est important lors de l’utilisation d’un classificateur statistique tel que Vraisemblance maximale. Le nombre et le pourcentage d’échantillons d’entraînement ont une moindre importance lorsque vous utilisez des classificateurs non paramétriques de Machine Learning tels que les classificateurs d’arbres aléatoires ou de machine à vecteurs de support.

Préparer

Sélectionnez l’une des méthodes de classification décrites dans le tableau suivant :

ClassificateurDescription

Grappe ISO

Le classificateur d’agrégats ISO effectue une classification non assistée à l’aide de la méthode des moyennes K. Ce classificateur, dont la table attributaire peut devenir très volumineuse, peut traiter des images segmentées très grandes. L'outil peut également accepter un raster RVB segmenté d'une application tierce. Il fonctionne avec des fichiers raster standard pris en charge par Esri, ainsi qu’avec des jeux de données raster segmentés. Si vous avez sélectionné Unsupervised (Non assisté) dans Classification Method (Méthode de classification) sur la page Configure (Configurer), c’est le seul classificateur disponible.

K voisins les plus proches

Le classificateur K voisins les plus proches effectuer une classification K voisins les plus proches qui classe un pixel selon un vote à la majorité relative de ses voisins. Le processus d’entraînement attribue les échantillons d’entraînement à leurs classes respectives. K est le nombre défini de voisins utilisés pour le vote.

Vraisemblance maximale

Le classificateur Vraisemblance maximale est une technique paramétrique traditionnelle de classification d’images. Pour obtenir des résultats fiables, chaque classe doit être représentée par un nombre statistiquement significatif d’échantillons d’entraînement avec une distribution normale et le nombre relatif d’échantillons d’entraînement représentant chaque classe doit être similaire.

Arbres aléatoires

Le classificateur d’arbres aléatoires est une technique avancée de Machine Learning qui résiste au sur-ajustement et fonctionne avec des images segmentées et d’autres jeux de données raster auxiliaires ainsi que les images multispectrales. Pour les entrées d’image standard, l’outil accepte les images à bandes multiples d’une profondeur de bits quelconque et réalise la classification d’arbres aléatoires (parfois nommée classification de forêt aléatoire) en fonction du fichier d’échantillons d’entraînement en entrée.

Si vous avez choisi la classification Object based (Basé sur des objets), vous pouvez sélectionner un ou tous les attributs de segment à utiliser durant l’entraînement du classificateur.

Machine à vecteurs de support

Le classificateur de machines à vecteurs de support est une méthode de classification de Machine Learning avancée capable de traiter une entrée de raster segmenté ou une image standard. Il est moins sensible au bruit, aux canaux corrélés et au nombre ou à la taille non équilibrés de sites d'apprentissage au sein de chaque classe. Les noyaux forment une fonction de base radiale non linéaire (RBF) utilisant une grille 2D avec des paires de paramètres optimales (C, gamma).

Si vous avez choisi la classification Object based (Basé sur des objets), vous pouvez sélectionner un ou tous les attributs de segment à utiliser durant l’entraînement du classificateur.

Lorsque vous cliquez sur Run (Exécuter), le classificateur est entraîné.

Une fois l’exécution terminée, vous pouvez vérifier visuellement les résultats obtenus par rapport à l’image source en utilisant l’outil Swipe (Balayer) de l’onglet Raster Layer (Couche raster) ou Mosaic Layer (Couche mosaïque). Vous pouvez comparer les résultats en appliquant différents réglages ou utiliser des classificateurs différents en cliquant sur Previous (Précédent) et en ajustant les réglages ou en sélectionnant un autre classificateur à exécuter. Vous pouvez comparer les différents résultats de la classification en utilisant l’outil Swipe (Balayer) ou en cliquant sur les couches pour les activer ou les désactiver dans la fenêtre Contents (Contenu). Si les résultats de la classification vous conviennent, cliquez sur Next (Suivant).

Classer

Cliquez sur Run (Exécuter) pour enregistrer les résultats de la classification dans le répertoire en sortie spécifié ou la base de données du projet. Il est également possible d’enregistrer le fichier de définition de classe en sortie (.ecd).

Attribuer des classes

Cette page s’affiche seulement si vous avez sélectionné Unsupervised (Non assisté) dans Classification Method (Méthode de classification). Un certain nombre de classes ont été créées en fonction du nombre de classes que vous avez spécifié, et selon les caractéristiques des pixels ou segments de votre imagerie source. À présent, vous devez attribuer une signification à chaque classe selon la structure de classification que vous utilisez. La partie supérieure de la page Assign Classes (Attribuer des classes) dresse la liste des classes de votre structure et la partie inférieure présente une table affichant les classes générées.

  1. Sélectionnez une classe dans la liste de la structure figurant dans la partie supérieure de la page.
  2. Cliquez sur l’outil Assign (Attribuer) pour sélectionner les classes sur la carte de classe que vous voulez attribuer à la classe de la structure. Lorsque vous attribuez des classes, examinez l’imagerie sous-jacente pour vérifier que les valeurs New Class (Nouvelle classe) conviennent. Appuyez sur la touche L pour modifier la transparence de l’image classée. Inspectez la table et assurez-vous qu’elle a mis à jour la valeur Old Class (Ancienne classe) selon la classe à laquelle vous l’avez attribuée. La couleur de la classe est mise à jour pour refléter la structure.

    Si vous décochez la carte de classe dans la fenêtre Contents (Contenu) de sorte que l’image source s’affiche, vous pouvez cliquer sur des entités dans l’imagerie (par exemple, sur les toits gris ou les pelouses) pour continuer la réattribution des classes correspondantes dans la carte de classe.

Combiner des classes

Après avoir réalisé une classification assistée, vous pouvez combiner plusieurs classes en classes plus grandes. Le nom initial des classes figure dans la colonne Old Class (Ancienne classe) de la page Merge Classes (Combiner des classes). Si vous désirez modifier une classe entière, vous pouvez le faire à cet endroit, mais vous êtes limité aux classes parent de votre structure. Vous pouvez par exemple transformer les arbres à feuilles caduques en forêt, mais vous ne pouvez pas les transformer en eau sur cette page. Pour réaliser ce type de mise à jour ou pour modifier des entités individuelles, vous devez utiliser la page Reclassifier (Reclassificateur).

Combiner des classes supervisées

Evaluation de la précision

Les résultats de la classification d’image sont comparés à Reference Data (Données de référence) ; ces données sont celles que vous avez fournies sur la page Configurer (Configurer) afin d’évaluer la précision. La structure de classification du jeu de données de référence doit correspondre à celle de l’image classée.

Nombre de points aléatoires

Le nombre total de points aléatoires qui vont être générés.

Le nombre réel peut être supérieur, mais ne doit jamais être inférieur à ce nombre, selon la stratégie d’échantillonnage et le nombre de classes. Le nombre pas défaut de points générés de façon aléatoire est de 500.

Stratégie d'échantillonnage

Spécifiez la méthode d’échantillonnage à utiliser.

  • Stratified Randoms (Aléatoire stratifié) : créez des points qui sont répartis de manière aléatoire au sein de chaque classe, chacune d’elles disposant d’un nombre de points proportionnel à cette zone relative. Cette méthode permet d’échantillonner l’image de sorte que le nombre de points d’échantillon par classe soit proportionnel à la zone par classe dans l’image. Le résultat final d’évaluation de la précision est représentatif de l’image. Il s’agit de l’option par défaut.
  • Equalized Stratified Random (Aléatoire stratifié égalisé) : créez des points qui sont répartis de manière aléatoire au sein de chaque classe, chacune d’elles disposant du même nombre de points. Cette méthode permet d’attribuer le même nombre de points d’échantillon à chaque classe, quel que soit le nombre de zones dont dispose chaque classe dans l’image. Le résultat final d’évaluation de la précision est représentatif de l’image, mais il mesure la précision en donnant la même pondération à chaque classe. Il s’agit d’une méthode alternative à l’échantillonnage aléatoire stratifié pour évaluer la précision.
  • Random (Aléatoire) - Créez des points qui sont répartis de manière aléatoire dans toute l’image. Cette méthode permet d’échantillonner les points de manière aléatoire sur l’image. Elle ne fait l’objet d’aucune stratification, le résultat final d’évaluation de la précision étant donc représentatif de l’image. Toutefois, si un petit nombre de points d’échantillon est utilisé, certaines classes représentant de petites zones peuvent manquer ou être sous-représentées.

Analyse de la diagonale

La précision est représentée de 0 à 1, 1 représentant une précision de 100 pour cent. Les couleurs vont du bleu clair au bleu foncé, les couleurs les plus sombres indiquant une précision plus élevée. Les valeurs le long de la diagonale représentent la précision générale de l’attribution de classe.

Evaluation de la précision

Analyse hors de la diagonale

Contrairement à la diagonale, les cellules situées en dehors de la diagonale présentent des erreurs reposant sur l’omission et la commission. Les erreurs d’omission font référence aux pixels ou aux segments qui ont été laissés de côté par la classe correcte dans l’image classée de telle sorte que la vraie classe a été omise ou diminuée dans la classification. Les erreurs de commission font référence à la classification incorrecte des pixels dans une classe, ce qui entraîne une augmentation trompeuse de la taille de la classe. Une erreur d’omission dans une classe est comptabilisée comme une erreur de commission dans une autre classe.

Si vous voulez examiner les valeurs de matrice d’erreurs, chargez et ouvrez la matrice de confusion en sortie enregistrée dans votre dossier en sortie le dossier du projet. Ce rapport d’erreurs, au format .dbf, répertorie les erreurs de l’utilisateur et du producteur de chaque classe et inclut l’accord statistique kappa pour la précision globale.

Lorsque vous avez décidé que la précision de la classification de vos images est acceptable pour vos objectifs, vous pouvez passer à la page finale de l’assistant de classification. Si tel n’est pas le cas, vous pouvez envisager de recréer des échantillons d’entraînement en ajustant les paramètres ou en utilisant une classification différente ou en testant d’autres données de référence.

Reclassificateur

Après avoir classé une image, il est possible que des erreurs mineures existent dans les résultats de classification. Pour corriger ces erreurs, il est souvent plus facile de mettre à jour l’image classée finale que de recréer les sites d’entraînement et de réaliser à nouveau chaque étape de la classification. La page Reclassifier (Reclassificateur) permet de mettre à jour individuellement des entités ou des objets dans l’image classée. Cette étape de posttraitement est conçue pour prendre en compte les erreurs dans le processus de classification. Toutes les modifications que vous avez apportées sont inscrites dans le fichier Edits Log (Journal des mises à jour) et vous avez la possibilité d’activer ou de désactiver les mises à jour effectuées. Pendant la reclassification de l’image pour corriger les erreurs, examinez l’imagerie sous-jacente pour vérifier que les objets conviennent. Appuyez sur la touche L pour modifier la transparence de l’image classée.

  1. Pour Current Class (Classe actuelle) et New Class (Nouvelle classe), sélectionnez les classes de la reclassification.
  2. Reclassez un objet ou une classe dans une région.
    • Utilisez l’outil Reclassify an object (Reclasser un objet) Reclasser un objet pour dessiner un cercle dans l’image classée. Le segment d'où provient le cercle deviendra la nouvelle classe.
    • Utilisez l’outil Reclassify within a region (Reclasser dans une région) Reclasser dans une région pour dessiner un polygone dans l’image classée. La classe actuelle au sein de ce polygone deviendra la nouvelle classe.
  3. Déterminez les mises à jour que vous voulez conserver ou abandonner dans le journal de mises à jour ; nommez le jeu de données classé final qui sera conservé dans l’emplacement en sortie que vous avez défini dans la page Configure (Configurer).

Rubriques connexes