Skip To Content

Label objects for Deep Learning

Mit der Image Analyst-Lizenz verfügbar.

All supervised deep learning tasks depend on labeled datasets, which means humans must apply their knowledge to train the neural network on what it is working to identify. The labeled objects will be used by the neural network to train a model that can be used to perform inferencing on data.

Image annotation (or a label) is vital for computer vision and learning, also known as deep learning tasks. A large amount of labeled data is required to train a good deep learning model. When the right training data is available, deep learning systems can be very accurate in feature extraction, pattern recognition, and solving complex problems. The Label Objects for Deep Learning pane can be used to quickly and accurately label data.

The Label Objects for Deep Learning button is found in the Classification Tools drop-down menu, on the Image Classification group on the Imagery tab. The pane is divided into two parts. The top part of the pane is used for managing classes and the bottom part of the pane is used for managing the collection of the samples and for exporting the training data for the Deep Learning Frameworks.

Create classes and label objects

The top portion of the pane allows you to manage object classes and manually create the objects used for training the Deep Learning model. There are many tools available to help you create labeled objects.

ToolFunction
New Rectangle

Create a labeled object by drawing a rectangle around a feature or object in the raster.

New Polygon

Create a labeled object by drawing a polygon around a feature or object in the raster.

New Circle

Create a labeled object by drawing a circle around a feature or object in the raster.

New Lasso Area

Create a labeled object by drawing a freehand shape around a feature or object in the raster.

Nach Polygon auswählen

Create a feature by selecting a segment from a segmented layer. This option is only available if there is a segmented layer in the Contents pane. Activate the Segment Picker by highlighting the segmented layer in the Contents pane, then select the layer from the Segment Picker drop-down list.

Bearbeiten

Select and edit a labeled object.

Neue Vorlage

Create a classification schema.

Durchsuchen

Select a classification schema option.

  • Browse to an existing schema.
  • Generate a new schema from an existing training sample feature class.
  • Generate a new schema from an existing classified raster.
  • Use the default 2011 National Land Cover Database schema.

Speichern

Save changes to the schema.

Änderungen speichern

Save a new copy of the schema.

Hinzufügen

Add a class category to the schema. Select the name of the schema first to create a parent class at the highest level. Select the name of an existing class to create a subclass.

Ausgewählte Elemente löschen

Remove the selected class or subclass category from the schema.

  1. Click one of the sketch tools such as Rectangle, Polygon, Circle, or Freehand to begin collecting object samples.
  2. Using a sketch tool, delineate the image feature representing the object in the map.
    1. If you are creating a feature without a class specified, the Define Class dialog box will appear. For more information about this dialog box, see the Define Class section.
  3. Continue to create and label objects as specified by the steps above.
  4. You can use the Labeled Objects tab (at the bottom of the pane) to delete and organize your labeled object samples.
  5. Once you are satisfied with all your labeled objects, save your samples, using the Save button Speichern on the Labeled Objects tab.

Now that you have manually labeled a representative sample of objects, these can be used to export your training data.

Define Class

The Define Class dialog box allows you to create a new class or define an existing class. If you choose Use Existing Class, select the appropriate Class Name for that object. If you choose Add New Class, you can optionally edit the information, then click OK to create the new class.

Labeled Objects

The Labeled Objects tab is located in the bottom section of the pane displays, and manages the training samples you have collected for each class. Collect representative sites, or training samples, for each class in the image. A training sample has location information (polygon) and an associated class. The image classification algorithm uses the training samples, saved as a feature class, to identify the land cover classes in the entire image.

You can view and manage training samples by adding, grouping, or removing them. When you select a training sample, it will be selected on the map. Double-click a training sample in the table to zoom to it in the map.

ToolFunction
Durchsuchen

Open an existing training samples feature class.

Speichern

Save edits made to the current labeled objects feature class.

Änderungen speichern

Save the current labeled objects as a new feature class.

Ausgewählte Elemente löschen

Delete the selected labeled objects.

Export Training Data

Once samples have been collected, you can export them into training data, using the Export Training Data tab. The training data can then be used in a deep learning model. Once the parameters have been filled in, click Run to create the training data.

ParameterDescription

Output Folder

Choose the output folder where the training data will be saved.

Mask Polygon Features

Eine Polygon-Feature-Class zur Abgrenzung der Fläche, in der Bildschnipsel erstellt werden.

Es werden nur Bildschnipsel erstellt, die vollständig in die Polygone fallen.

Image Format

Specifies the raster format for the image chip outputs.

  • TIFF Format
  • MRF (Meta Raster Format)
  • PNG Format
  • JPEG Format

PNG und JPEG unterstützen bis zu 3 Bänder.

Tile Size X

Größe der Bildschnipsel (X-Dimension).

Tile Size Y

Größe der Bildschnipsel (Y-Dimension).

Stride X

Verschiebung in X-Richtung bei Erstellung der nächsten Bildschnipsel.

Wenn der Schritt der Kachelgröße entspricht, gibt es keine Überlappung. Wenn der Schritt der halben Kachelgröße entspricht, gibt es eine Überlappung von 50 Prozent

Stride Y

Verschiebung in Y-Richtung bei Erstellung der nächsten Bildschnipsel.

Wenn der Schritt der Kachelgröße entspricht, gibt es keine Überlappung. Wenn der Schritt der halben Kachelgröße entspricht, gibt es eine Überlappung von 50 Prozent

Rotation Angle

The rotation angle that will be used to generate additional image chips. An image chip will be generated with a rotation angle of 0, which means no rotation. It will then be rotated at the specified angle to create an additional image chip. The same training samples will be captured at multiple angles in multiple image chips for data augmentation. The default rotation angle is 0.

Output No Feature Tiles

Gibt an, ob Bildschnipsel, die keine Trainingsgebiete erfassen, exportiert werden.

  • Unchecked—Only image chips that capture training samples will be exported. This is the default.
  • Checked—All image chips, including those that do not capture training samples, will be exported.

Metadata format

Gibt das Ausgabeformat für Metadatenbeschriftungen an.

Es gibt fünf Optionen der Ausgabe-Metadaten-Beschriftungen für die Trainingsdaten: KITTI-Rechtecke, PASCAL VOC-Rechtecke, Klassifizierte Kacheln (eine Class-Karte), RCNN-Masken sowie Beschriftete Kacheln. Wenn es sich bei den Eingabedaten für das Trainingsgebiet um einen Feature-Class-Layer handelt, wie zum Beispiel eine Gebäude-Layer- oder Standardklassifizierungs-Trainingsgebiet-Datei, verwenden Sie KITTI- oder PASCAL VOC-Rechtecke. Die Ausgabe-Metadaten sind eine .txt-Datei oder .xml-Datei mit den Daten für das Trainingsgebiet, die im kleinsten umgebenden Rechteck enthalten sind. Der Name der Metadatendatei stimmt mit dem Namen des Eingabequellbildes überein. Wenn es sich bei den Eingabedaten für das Trainingsgebiet um eine Class-Karte handelt, verwenden Sie als Format für die Ausgabe-Metadaten die Option "Klassifizierte Kacheln".

  • KITTI_rectangles—The metadata follows the same format as the Karlsruhe Institute of Technology and Toyota Technological Institute (KITTI) Object Detection Evaluation dataset. The KITTI dataset is a vision benchmark suite. The label files are plain text files. All values, both numerical and strings, are separated by spaces, and each row corresponds to one object. This is the default.
  • PASCAL_VOC_rectangles—The metadata follows the same format as the Pattern Analysis, Statistical Modeling and Computational Learning, Visual Object Classes (PASCAL_VOC) dataset. The PASCAL VOC dataset is a standardized image dataset for object class recognition. The label files are XML files and contain information about image name, class value, and bounding boxes.
  • Classified_Tiles—The output will be one classified image chip per input image chip. No other metadata for each image chip is used. Only the statistics output has more information on the classes, such as class names, class values, and output statistics.
  • RCNN_Masks—The output will be image chips that have a mask on the areas where the sample exists. The model generates bounding boxes and segmentation masks for each instance of an object in the image. It's based on Feature Pyramid Network (FPN) and a ResNet101 backbone in the Deep Learning framework model.
  • Labeled_Tiles—Each output tile will be labeled with a specific class. If you choose this metadata format, you can additionally refine the Blacken Around Feature and Crop Mode parameters.

Beim KITTI-Metadatenformat werden 15 Spalten erstellt, jedoch nur 5 davon im Werkzeug verwendet. Die erste Spalte ist der Klassenwert. Die nächsten 3 Spalten werden übersprungen. In den Spalten 5-8 wird das kleinste umgebende Rechteck definiert, das aus 4 Bildkoordinatenpositionen besteht. Diese sind die entsprechenden Pixel links, oben, rechts und unten. Das kleinste umgebende Rechteck umfasst den im Deep-Learning-Klassifikator verwendeten Training-Schnipsel. Die verbleibenden Spalten werden nicht verwendet.

Blacken Around Feature

Gibt an, ob die Pixel um die einzelnen Objekte oder Features in den Bildkacheln geschwärzt werden sollen.

  • Deaktiviert: Die die Objekte oder Features umgebenden Pixel werden nicht geschwärzt. Dies ist die Standardeinstellung.
  • Aktiviert: Die die Objekte oder Features umgebenden Pixel werden geschwärzt.

Dieser Parameter findet nur Anwendung, wenn das Format auf Beschriftete Kacheln eingestellt ist und eine Eingabe-Feature-Class oder ein klassifiziertes Raster angegeben wurde.

Crop Mode

Gibt an, ob die exportierten Kacheln auf dieselbe Größe zugeschnitten werden sollen.

  • Fixed size—Exported tiles will be the same size and will center on the feature. This is the default.
  • Bounding box—Exported tiles will be cropped such that the bounding geometry surrounds only the feature in the tile.

Dieser Parameter findet nur Anwendung, wenn das Format auf Beschriftete Kacheln eingestellt ist und eine Eingabe-Feature-Class oder ein klassifiziertes Raster angegeben wurde.

The exported training data can now be used within a deep learning model.

Verwandte Themen