Exporter les données d’apprentissage pour l'apprentissage en profondeur (Spatial Analyst)

Disponible avec une licence Spatial Analyst.

Disponible avec une licence Image Analyst.

Synthèse

Convertit des données vectorielles ou raster étiquetées en jeux de données d’entraînement pour l’apprentissage profond via une image télédétectée. La sortie est un dossier de fragments d’images et un dossier de fichiers de métadonnées au format spécifié.

Utilisation

  • Cet outil crée des jeux de données d’apprentissage en vue de prendre en charge les applications d’apprentissage profond tierces, telles que Google TensorFlow, Keras, PyTorch et Microsoft CNTK.

  • Les échantillons d’apprentissage de classe Deep Learning reposent sur de petites images secondaires (appelées fragments d’image) contenant l’entité ou la classe présentant un intérêt.

  • Utilisez vos données d’échantillon d’apprentissage de classification existantes ou vos données de classes d’entités SIG (une couche d’emprise de bâtiment, par exemple) pour générer les fragments d’image contenant l’échantillon de classe à partir de l’image source. Les fragments d’image sont souvent composés de lignes de 256 pixels et de colonnes de 256 pixels, sauf si la taille de l’échantillon d’apprentissage est plus importante. Chaque fragment d’image peut contenir un ou plusieurs objets. Si le format de métadonnées du paramètre Tuiles étiquetées est utilisé, il ne peut exister qu’un seul objet par fragment d’image.

  • Vous pouvez attribuer une valeur au paramètre Système de référence pour exporter les données d’apprentissage dans l’espace cartographique ou l’espace pixel (espace image brut) à utiliser pour l’apprentissage du modèle Deep Learning.

  • Cet outil prend en charge l’exportation des données d’entraînement à partir d’une collection d’images. Vous pouvez ajouter un dossier d’images dans Raster en entrée. Si la valeur Raster en entrée est un jeu de données mosaïque ou un service d’imagerie, vous pouvez également préciser que le paramètre Mode de traitement traite la mosaïque en tant qu’entrée ou chaque élément du raster séparément.

  • La taille de cellule et l’étendue peuvent être ajustées grâce aux paramètres d’environnement de géotraitement.

  • Pour en savoir plus sur les exigences relatives à l’exécution de cet outil, ainsi que sur les problèmes que vous pouvez rencontrer, consultez les rubriques FAQ Apprentissage profond. .

Paramètres

ÉtiquetteExplicationType de données
Raster en entrée

L’imagerie source en entrée, généralement une imagerie multispectrale.

Les exemples de types d’imagerie source en entrée sont par exemple l’imagerie satellite multispectrale, issue de drones, aérienne et du programme NAIP (National Agriculture Imagery Program). L’entrée peut être un dossier contenant des images.

Raster Dataset; Raster Layer; Mosaic Layer; Image Service; Map Server; Map Server Layer; Internet Tiled Layer; Folder
Dossier en sortie

Dossier dans lequel les fragments d’images et les métadonnées seront stockés.

Le dossier peut aussi être une URL de dossier qui utilise un fichier de connexion au stockage cloud (*.acs).

Folder
Classe d’entités en entrée, raster classé ou table

Données d’échantillon d’entraînement sous forme vectorielle ou raster.

Les entrées vectorielles doivent suivre le format d’échantillon d’apprentissage généré dans la fenêtre Gestionnaire d’échantillons d’apprentissage. Les entrées raster doivent suivre un format raster classé généré par l’outil Classer le raster. L’entrée du raster peut également provenir d’un dossier de rasters classés. Les tables en entrée doivent suivre un format d’échantillon d’apprentissage généré par l’outil Étiqueter les objets pour le Deep Learning dans la fenêtre Gestionnaire d’échantillons d’apprentissage. Le respect du format de l’échantillon d’apprentissage permet de générer des résultats optimisés avec les informations statistiques. L’entrée peut cependant également être une classe d’entités ponctuelles sans champ de valeur de classe ou un raster de type entier sans information de classe.

Feature Class; Feature Layer; Raster Dataset; Raster Layer; Mosaic Layer; Image Service; Table; Folder
Format de l’image

Spécifie le format raster qui sera utilisé pour les fragments d’images en sortie.

Les formats PNG et JPEG prennent en charge jusqu’à trois canaux.

  • format TIFFLe format TIFF sera utilisé.
  • format PNGLe format PNG sera utilisé.
  • format JPEGLe format JPEG sera utilisé.
  • MRF (Meta Raster Format)Meta Raster Format (MRF) va être utilisé.
String
Taille de tuile X
(Facultatif)

Taille des fragments d’images pour la dimension x.

Long
Taille de tuile Y
(Facultatif)

Taille des fragments d’images pour la dimension y.

Long
Pas en X
(Facultatif)

Distance de déplacement sur la direction x lors de la création des fragments d’image suivants.

Si le pas est égal à la taille de tuile, il n’y a pas de superposition. Si le pas est égal à la moitié de la taille de tuile, il y a une superposition de 50 %.

Long
Pas en Y
(Facultatif)

Distance de déplacement sur la direction y lors de la création des fragments d’image suivants.

Si le pas est égal à la taille de tuile, il n’y a pas de superposition. Si le pas est égal à la moitié de la taille de tuile, il y a une superposition de 50 %.

Long
Aucune tuile d'entités en sortie
(Facultatif)

Spécifie si les fragments d’images qui ne capturent pas d’échantillons d’apprentissage seront exportés.

  • Activé : tous les fragments d’images sont exportés, y compris ceux qui ne capturent pas d’échantillons d’apprentissage.
  • Désactivé : seuls les fragments d’images capturant des échantillons d’apprentissage sont exportés. Il s’agit de l’option par défaut.

Lorsque ce paramètre est activé, les fragments d’image ne capturant pas de données étiquetées sont également exportés ; s’il n’est pas sélectionné, ces fragments ne sont pas exportés.

Boolean
Format de métadonnées
(Facultatif)

Spécifie le format des étiquettes de métadonnées en sortie.

Si les données d’échantillons d’apprentissage en entrée sont une couche de classe d’entités, telle qu’une couche d’emprise de bâtiment ou un fichier d’échantillon d’apprentissage de classification standard, utilisez l’option Étiquettes KITTI ou PASCAL Visual Object Classes (KITTI_rectangles ou PASCAL_VOC_rectangles dans Python). Les métadonnées en sortie sont un fichier .txt ou un fichier .xml comportant les données d’échantillons d’apprentissage contenues dans le rectangle d’emprise minimale. Le nom du fichier de métadonnées correspond à celui de l’image source en entrée. Si les données d’échantillons d’apprentissage en entrée sont une carte de classe, utilisez l’option Tuiles classées (Classified_Tiles dans Python) comme format de métadonnées en sortie.

Pour le format de métadonnées KITTI, 15 colonnes sont créées, mais seulement 5 d’entre elles sont utilisées dans l’outil. La première colonne est la valeur de classe. Les 3 colonnes suivantes sont ignorées. Les colonnes 5 à 8 définissent le rectangle d’emprise minimale comportant quatre emplacements de coordonnées d’image : pixels de gauche, en haut, de droite et en bas. Le rectangle d’emprise minimale englobe le fragment d’apprentissage utilisé dans le classificateur d’apprentissage en profondeur. Les autres colonnes ne sont pas utilisées.

  • KITTI Labels (Étiquettes KITTI)Les métdonnées suivent le même format que celui du jeu de données Object Detection Evaluation (Vérification de la détection d’objets) du KITTI (Karlsruhe Institute of Technology and Toyota Technological Institute) . Le jeu de données KITTI est une suite de référence en matière de conception. Les fichiers d’étiquettes sont des fichiers de texte brut. Toutes les valeurs, à la fois numériques ou de chaînes, sont séparées par des espaces et chaque ligne correspond à un objet.Ce format est utilisé pour détecter les objets.
  • Classes d’objets visuels PASCALLes métadonnées suivent le même format que le jeu de données PASCAL_VOC (Pattern Analysis, Statistical Modeling and Computational Learning, Visual Object Classes). Le jeu de données PASCAL VOC est un jeu de données d’image standardisé pour la reconnaissance des classes d’objets. Les fichiers d’étiquettes sont au format XML et contiennent des informations sur le nom des images, la valeur de classe et les emprises.Ce format est utilisé pour détecter les objets. Il s’agit de l’option par défaut.
  • Classified Tiles (Tuiles classées)La sortie sera un fragment d’image classé par fragment d’image en entrée. Aucune autre métadonnée n’est utilisée pour chaque fragment d’image. Seule la sortie statistique comporte plus d’informations sur les classes, telles que les noms des classes, les valeurs des classes et les statistiques en sortie.Ce format est principalement utilisé pour la classification des pixels. Ce format est également utilisé pour la détection de changement lorsque la sortie est un fragment d’image classé issu de deux fragments d’image.
  • RCNN Masks (Masques RCNN)La sortie sera des fragments d’images comportant un masque sur les zones où se trouve l’échantillon. Le modèle génère des emprises et des masques de segmentation pour chaque instance d’un objet dans l’image. Ce format repose sur le réseau pyramidal d’entités (Feature Pyramid Network ou FPN) et une architecture ResNet101 dans le modèle d’infrastructure Deep Learning.Ce format est utilisé pour détecter les objets.
  • Labeled Tiles (Tuiles étiquetées)Chaque tuile en sortie portera l’étiquette d’une classe spécifique.Ce format est utilisé pour la classification des objets.
  • Tuiles à plusieurs étiquettesChaque tuile en sortie est étiquetée selon une ou plusieurs classes. Par exemple, une tuile peut porter les étiquettes agriculture et nuageux.Ce format est utilisé pour la classification des objets.
  • Exporter des tuilesLa sortie consiste en des fragments d’image sans étiquette.Ce format est utilisé pour les techniques de conversion d’image (Pix2Pix et Super Resolution, par exemple).
  • CycleGANLa sortie consiste en des fragments d’image sans étiquette.Ce format est utilisé pour la technique de conversion d’image CycleGAN, qui est utilisée pour préparer les images qui ne se chevauchent pas.
String
Index de début
(Facultatif)

Héritage :

Ce paramètre est désormais obsolète.

Long
Champ de valeur de classe
(Facultatif)

Champ contenant les valeurs de classe. Si aucun champ n’est spécifié, le système recherche un champ value ou classvalue. Si l’entité ne contient pas de champ de classe, le système détermine que tous les enregistrements appartiennent à une même classe.

Field
Rayon de la zone tampon
(Facultatif)

Rayon d’une zone tampon autour de chaque échantillon d’apprentissage permettant de délimiter une zone d’échantillon d’apprentissage. Vous pouvez ainsi créer des échantillons d’apprentissage surfaciques circulaires à partir de points.

L’unité linéaire de la référence spatiale Input Feature Class Or Classified Raster (Raster classé ou classe d’entités en entrée) est utilisée.

Double
Input Mask Polygons (Polygones de masque en entrée)
(Facultatif)

Classe d’entités surfaciques qui délimite la zone de création des fragments d’images.

Seuls les fragments d’images totalement inclus dans les polygones seront créés.

Feature Layer
Angle de rotation
(Facultatif)

Angle de rotation utilisé pour générer d’autres fragments d’images.

Un fragment d’image sera généré avec un angle de rotation de 0, ce qui signifie qu’il n’y a pas de rotation. Il subira ensuite une rotation selon l’angle spécifié afin de créer un autre fragment d’image. Les échantillons d’apprentissage seront capturés sous plusieurs angles dans plusieurs fragments d’images, pour augmenter les données.

L’angle de rotation par défaut est de 0.

Double
Système de référence
(Facultatif)

Indique le type de système de référence qui va être utilisé pour interpréter l’image en entrée. Le système de référence spécifié doit correspondre au système de référence utilisé pour entraîner le modèle d’apprentissage profond.

  • Espace cartographiqueUn système de coordonnées basé sur la carte est utilisé. Il s’agit de l’option par défaut.
  • RésolutionL’espace image est utilisé, sans rotation ni distorsion.
String
Processing Mode (Mode de traitement)
(Facultatif)

Spécifie comment tous les éléments raster figurant dans un jeu de données mosaïque ou un service d’imagerie seront traités. Ce paramètre est appliqué lorsqu’un raster en entrée est un jeu de données mosaïque ou service d’imagerie.

  • Process as mosaicked image (Traiter en tant qu’image mosaïquée)Tous les éléments raster figurant dans le jeu de données mosaïque ou le service d’imagerie seront mosaïqués ensemble, puis traités. Il s’agit de l’option par défaut.
  • Process all raster items separately (Traiter tous les éléments raster séparément)Tous les éléments raster figurant dans le jeu de données mosaïque ou le service d’imagerie seront traités en tant qu’images séparées.
String
Blacken Around Feature (Assombrir autour de l’entité)
(Facultatif)

Indique si les pixels autour de chaque objet ou entité de chaque tuile d’images sont masqués.

Ce paramètre s’applique uniquement lorsque le format de métadonnées est défini sur Labeled Tiles (Tuiles étiquetées) et qu’une classe d’entités ou un raster classé en entrée a été spécifié.

  • Désactivé : les pixels entourant les objets ou les entités ne sont pas masqués. Il s’agit de l’option par défaut.
  • Activé : les pixels entourant les objets ou les entités sont masqués.
Boolean
Crop Mode (Mode de rognage)
(Facultatif)

Spécifie si les tuiles exportées sont rognées de telle sorte qu’elles fassent toutes la même taille.

Ce paramètre s’applique uniquement lorsque le format de métadonnées est défini sur Labeled Tiles (Tuiles étiquetées) et qu’une classe d’entités ou un raster classé en entrée a été spécifié.

  • Taille fixeLes tuiles exportées sont rognées de telle sorte qu’elles fassent la même taille et sont centrées sur l’entité. Il s’agit de l’option par défaut.
  • Bounding box (Emprise)Les tuiles exportées sont rognées de telle sorte que l’emprise géométrique entoure uniquement l’entité dans la tuile.
String
Raster en entrée supplémentaire
(Facultatif)

Une source d’imagerie en entrée supplémentaire pour les méthodes de conversion d’image.

Ce paramètre est valide lorsque le paramètre Format de métadonnées est défini sur Tuiles classées, Exporter des tuiles ou CycleGAN.

Raster Dataset; Raster Layer; Mosaic Layer; Image Service; Map Server; Map Server Layer; Internet Tiled Layer; Folder

ExportTrainingDataForDeepLearning(in_raster, out_folder, in_class_data, image_chip_format, {tile_size_x}, {tile_size_y}, {stride_x}, {stride_y}, {output_nofeature_tiles}, {metadata_format}, {start_index}, {class_value_field}, {buffer_radius}, {in_mask_polygons}, {rotation_angle}, {reference_system}, {processing_mode}, {blacken_around_feature}, {crop_mode}, {in_raster2})
NomExplicationType de données
in_raster

L’imagerie source en entrée, généralement une imagerie multispectrale.

Les exemples de types d’imagerie source en entrée sont par exemple l’imagerie satellite multispectrale, issue de drones, aérienne et du programme NAIP (National Agriculture Imagery Program). L’entrée peut être un dossier contenant des images.

Raster Dataset; Raster Layer; Mosaic Layer; Image Service; Map Server; Map Server Layer; Internet Tiled Layer; Folder
out_folder

Dossier dans lequel les fragments d’images et les métadonnées seront stockés.

Le dossier peut aussi être une URL de dossier qui utilise un fichier de connexion au stockage cloud (*.acs).

Folder
in_class_data

Données d’échantillon d’entraînement sous forme vectorielle ou raster.

Les entrées vectorielles doivent suivre le format d’échantillon d’apprentissage généré dans la fenêtre Gestionnaire d’échantillons d’apprentissage. Les entrées raster doivent suivre un format raster classé généré par l’outil Classer le raster. L’entrée du raster peut également provenir d’un dossier de rasters classés. Les tables en entrée doivent suivre un format d’échantillon d’apprentissage généré par l’outil Étiqueter les objets pour le Deep Learning dans la fenêtre Gestionnaire d’échantillons d’apprentissage. Le respect du format de l’échantillon d’apprentissage permet de générer des résultats optimisés avec les informations statistiques. L’entrée peut cependant également être une classe d’entités ponctuelles sans champ de valeur de classe ou un raster de type entier sans information de classe.

Feature Class; Feature Layer; Raster Dataset; Raster Layer; Mosaic Layer; Image Service; Table; Folder
image_chip_format

Spécifie le format raster qui sera utilisé pour les fragments d’images en sortie.

Les formats PNG et JPEG prennent en charge jusqu’à trois canaux.

  • TIFFLe format TIFF sera utilisé.
  • PNGLe format PNG sera utilisé.
  • JPEGLe format JPEG sera utilisé.
  • MRFMeta Raster Format (MRF) va être utilisé.
String
tile_size_x
(Facultatif)

Taille des fragments d’images pour la dimension x.

Long
tile_size_y
(Facultatif)

Taille des fragments d’images pour la dimension y.

Long
stride_x
(Facultatif)

Distance de déplacement sur la direction x lors de la création des fragments d’image suivants.

Si le pas est égal à la taille de tuile, il n’y a pas de superposition. Si le pas est égal à la moitié de la taille de tuile, il y a une superposition de 50 %.

Long
stride_y
(Facultatif)

Distance de déplacement sur la direction y lors de la création des fragments d’image suivants.

Si le pas est égal à la taille de tuile, il n’y a pas de superposition. Si le pas est égal à la moitié de la taille de tuile, il y a une superposition de 50 %.

Long
output_nofeature_tiles
(Facultatif)

Spécifie si les fragments d’images qui ne capturent pas d’échantillons d’apprentissage seront exportés.

  • ALL_TILESTous les fragments d’images sont exportés, y compris ceux qui ne recouvrent pas d’échantillons d’apprentissage.
  • ONLY_TILES_WITH_FEATURESSeuls les fragments d’images recouvrant des échantillons d’apprentissage sont exportés. Il s’agit de l’option par défaut.
Boolean
metadata_format
(Facultatif)

Spécifie le format des étiquettes de métadonnées en sortie.

Si les données d’échantillons d’apprentissage en entrée sont une couche de classe d’entités, telle qu’une couche d’emprise de bâtiment ou un fichier d’échantillon d’apprentissage de classification standard, utilisez l’option Étiquettes KITTI ou PASCAL Visual Object Classes (KITTI_rectangles ou PASCAL_VOC_rectangles dans Python). Les métadonnées en sortie sont un fichier .txt ou un fichier .xml comportant les données d’échantillons d’apprentissage contenues dans le rectangle d’emprise minimale. Le nom du fichier de métadonnées correspond à celui de l’image source en entrée. Si les données d’échantillons d’apprentissage en entrée sont une carte de classe, utilisez l’option Tuiles classées (Classified_Tiles dans Python) comme format de métadonnées en sortie.

  • KITTI_rectanglesLes métdonnées suivent le même format que celui du jeu de données Object Detection Evaluation (Vérification de la détection d’objets) du KITTI (Karlsruhe Institute of Technology and Toyota Technological Institute) . Le jeu de données KITTI est une suite de référence en matière de conception. Les fichiers d’étiquettes sont des fichiers de texte brut. Toutes les valeurs, à la fois numériques ou de chaînes, sont séparées par des espaces et chaque ligne correspond à un objet.Ce format est utilisé pour détecter les objets.
  • PASCAL_VOC_rectanglesLes métadonnées suivent le même format que le jeu de données PASCAL_VOC (Pattern Analysis, Statistical Modeling and Computational Learning, Visual Object Classes). Le jeu de données PASCAL VOC est un jeu de données d’image standardisé pour la reconnaissance des classes d’objets. Les fichiers d’étiquettes sont au format XML et contiennent des informations sur le nom des images, la valeur de classe et les emprises.Ce format est utilisé pour détecter les objets. Il s’agit de l’option par défaut.
  • Classified_TilesLa sortie sera un fragment d’image classé par fragment d’image en entrée. Aucune autre métadonnée n’est utilisée pour chaque fragment d’image. Seule la sortie statistique comporte plus d’informations sur les classes, telles que les noms des classes, les valeurs des classes et les statistiques en sortie.Ce format est principalement utilisé pour la classification des pixels. Ce format est également utilisé pour la détection de changement lorsque la sortie est un fragment d’image classé issu de deux fragments d’image.
  • RCNN_MasksLa sortie sera des fragments d’images comportant un masque sur les zones où se trouve l’échantillon. Le modèle génère des emprises et des masques de segmentation pour chaque instance d’un objet dans l’image. Ce format repose sur le réseau pyramidal d’entités (Feature Pyramid Network ou FPN) et une architecture ResNet101 dans le modèle d’infrastructure Deep Learning.Ce format est utilisé pour détecter les objets.
  • Labeled_TilesChaque tuile en sortie portera l’étiquette d’une classe spécifique.Ce format est utilisé pour la classification des objets.
  • MultiLabeled_TilesChaque tuile en sortie est étiquetée selon une ou plusieurs classes. Par exemple, une tuile peut porter les étiquettes agriculture et nuageux.Ce format est utilisé pour la classification des objets.
  • Export_TilesLa sortie consiste en des fragments d’image sans étiquette.Ce format est utilisé pour les techniques de conversion d’image (Pix2Pix et Super Resolution, par exemple).
  • CycleGANLa sortie consiste en des fragments d’image sans étiquette.Ce format est utilisé pour la technique de conversion d’image CycleGAN, qui est utilisée pour préparer les images qui ne se chevauchent pas.

Pour le format de métadonnées KITTI, 15 colonnes sont créées, mais seulement 5 d’entre elles sont utilisées dans l’outil. La première colonne est la valeur de classe. Les 3 colonnes suivantes sont ignorées. Les colonnes 5 à 8 définissent le rectangle d’emprise minimale comportant quatre emplacements de coordonnées d’image : pixels de gauche, en haut, de droite et en bas. Le rectangle d’emprise minimale englobe le fragment d’apprentissage utilisé dans le classificateur d’apprentissage en profondeur. Les autres colonnes ne sont pas utilisées.

Un exemple de l’option PASCAL_VOC_rectangles est présenté ci-dessous :

<?xml version=”1.0”?>
- <layout>
      <image>000000000</image>
      <object>1</object>
    - <part>
         <class>1</class>
       - <bndbox>
            <xmin>31.85</xmin>
            <ymin>101.52</ymin>
            <xmax>256.00</xmax>
            <ymax>256.00</ymax>
         </bndbox>
      </part>
  </layout>

Pour plus d’informations, consultez PASCAL Visual Object Classes PASCAL Visual Object Classes.

String
start_index
(Facultatif)

Héritage :

Ce paramètre est désormais obsolète. Utilisez une valeur 0 ou # dans Python.

Long
class_value_field
(Facultatif)

Champ contenant les valeurs de classe. Si aucun champ n’est spécifié, le système recherche un champ value ou classvalue. Si l’entité ne contient pas de champ de classe, le système détermine que tous les enregistrements appartiennent à une même classe.

Field
buffer_radius
(Facultatif)

Rayon d’une zone tampon autour de chaque échantillon d’apprentissage permettant de délimiter une zone d’échantillon d’apprentissage. Vous pouvez ainsi créer des échantillons d’apprentissage surfaciques circulaires à partir de points.

L’unité linéaire de la référence spatiale in_class_data est utilisée.

Double
in_mask_polygons
(Facultatif)

Classe d’entités surfaciques qui délimite la zone de création des fragments d’images.

Seuls les fragments d’images totalement inclus dans les polygones seront créés.

Feature Layer
rotation_angle
(Facultatif)

Angle de rotation utilisé pour générer d’autres fragments d’images.

Un fragment d’image sera généré avec un angle de rotation de 0, ce qui signifie qu’il n’y a pas de rotation. Il subira ensuite une rotation selon l’angle spécifié afin de créer un autre fragment d’image. Les échantillons d’apprentissage seront capturés sous plusieurs angles dans plusieurs fragments d’images, pour augmenter les données.

L’angle de rotation par défaut est de 0.

Double
reference_system
(Facultatif)

Indique le type de système de référence qui va être utilisé pour interpréter l’image en entrée. Le système de référence spécifié doit correspondre au système de référence utilisé pour entraîner le modèle d’apprentissage profond.

  • MAP_SPACEUn système de coordonnées basé sur la carte est utilisé. Il s’agit de l’option par défaut.
  • PIXEL_SPACEL’espace image est utilisé, sans rotation ni distorsion.
String
processing_mode
(Facultatif)

Spécifie comment tous les éléments raster figurant dans un jeu de données mosaïque ou un service d’imagerie seront traités. Ce paramètre est appliqué lorsqu’un raster en entrée est un jeu de données mosaïque ou service d’imagerie.

  • PROCESS_AS_MOSAICKED_IMAGETous les éléments raster figurant dans le jeu de données mosaïque ou le service d’imagerie seront mosaïqués ensemble, puis traités. Il s’agit de l’option par défaut.
  • PROCESS_ITEMS_SEPARATELYTous les éléments raster figurant dans le jeu de données mosaïque ou le service d’imagerie seront traités en tant qu’images séparées.
String
blacken_around_feature
(Facultatif)

Indique si les pixels autour de chaque objet ou entité de chaque tuile d’images sont masqués.

Ce paramètre s’applique uniquement lorsque le format de métadonnées est défini sur Labeled_Tiles et qu’une classe d’entités ou un raster classé en entrée a été spécifié.

  • NO_BLACKENLes pixels entourant les objets ou les entités ne sont pas masqués. Il s’agit de l’option par défaut.
  • BLACKEN_AROUND_FEATURELes pixels entourant les objets ou les entités sont masqués.
Boolean
crop_mode
(Facultatif)

Spécifie si les tuiles exportées sont rognées de telle sorte qu’elles fassent toutes la même taille.

Ce paramètre s’applique uniquement lorsque le format de métadonnées est défini sur Labeled_Tiles et qu’une classe d’entités ou un raster classé en entrée a été spécifié.

  • FIXED_SIZELes tuiles exportées sont rognées de telle sorte qu’elles fassent la même taille et sont centrées sur l’entité. Il s’agit de l’option par défaut.
  • BOUNDING_BOXLes tuiles exportées sont rognées de telle sorte que l’emprise géométrique entoure uniquement l’entité dans la tuile.
String
in_raster2
(Facultatif)

Une source d’imagerie en entrée supplémentaire pour les méthodes de conversion d’image.

Ce paramètre est valide lorsque le paramètre metadata_format est défini sur Classified_Tiles, Export_Tiles ou CycleGAN.

Raster Dataset; Raster Layer; Mosaic Layer; Image Service; Map Server; Map Server Layer; Internet Tiled Layer; Folder

Exemple de code

Exemple 1 d'utilisation de l'outil ExportTrainingDataForDeepLearning (fenêtre Python)

Cet exemple permet de créer des échantillons d’apprentissage pour la formation en profondeur.

# Import system modules
import arcpy
from arcpy.sa import *

# Check out the ArcGIS Image Analyst extension license
arcpy.CheckOutExtension("spatialAnalyst")

ExportTrainingDataForDeepLearning("c:/test/image.tif", "c:/test/outfolder",
             "c:/test/training.shp", "TIFF", "256", "256", "128", "128", 
             "ONLY_TILES_WITH_FEATURES", "Labeled_Tiles", 0, "Classvalue", 0, 
			 None, 0,  "MAP_SPACE", "PROCESS_AS_MOSAICKED_IMAGE", "NO_BLACKEN", 
			 "FIXED_SIZE")
Exemple 2 d'utilisation de l'outil ExportTrainingDataForDeepLearning (script autonome)

Cet exemple permet de créer des échantillons d’apprentissage pour la formation en profondeur.

# Import system modules and check out ArcGIS Image Analyst extension license
import arcpy
arcpy.CheckOutExtension("SpatialAnalyst")
from arcpy.sa import *

# Set local variables
inRaster = "C:/test/InputRaster.tif"
out_folder = "c:/test/OutputFolder"
in_training = "c:/test/TrainingData.shp"
image_chip_format = "TIFF"
tile_size_x = "256"
tile_size_y = "256"
stride_x="128"
stride_y="128"
output_nofeature_tiles="ONLY_TILES_WITH_FEATURES"
metadata_format="Labeled_Tiles"
start_index = 0
classvalue_field = "Classvalue"
buffer_radius = 0
in_mask_polygons = "MaskPolygon"
rotation_angle = 0
reference_system = "MAP_SPACE"
processing_mode = "PROCESS_AS_MOSAICKED_IMAGE"
blacken_around_feature = "NO_BLACKEN"
crop_mode = "FIXED_SIZE"

# Execute 
ExportTrainingDataForDeepLearning(inRaster, out_folder, in_training, 
             image_chip_format,tile_size_x, tile_size_y, stride_x, 
             stride_y,output_nofeature_tiles, metadata_format, start_index, 
			 classvalue_field, buffer_radius, in_mask_polygons, rotation_angle, 
			 reference_system, processing_mode, blacken_around_feature, crop_mode)

Informations de licence

  • Basic: Nécessite Spatial Analyst ou Image Analyst
  • Standard: Nécessite Spatial Analyst ou Image Analyst
  • Advanced: Nécessite Spatial Analyst ou Image Analyst

Rubriques connexes