Deep-Learning-Argumente

Mit der Image Analyst-Lizenz verfügbar.

Argumente sind eine der zahlreichen Möglichkeiten, mit denen gesteuert werden kann, wie Deep-Learning-Modelle trainiert und verwendet werden. In der ersten nachstehenden Tabelle sind die unterstützten Modellargumente für das Trainieren von Deep-Learning-Modellen aufgeführt. Die zweite Tabelle enthält die Argumente, mit denen gesteuert werden kann, wie Deep-Learning-Modelle für die Inferenzierung verwendet werden.

Trainingsargumente

Die folgenden Argumente zum Trainieren von Deep-Learning-Modellen sind im Werkzeug Deep-Learning-Modell trainieren verfügbar. Diese Argumente variieren je nach Modellarchitektur. Zum Trainieren eines Modells können Sie die Werte dieser Argumente ändern.

ModelltypArgumentGültige Werte

Change Detector (Pixelklassifizierung)

attention_type

PAM (Pyramid Attention Module) oder BAM (Basic Attention Module).

chip_size

Ganze Zahlen zwischen 0 und der Bildgröße.

monitor

valid_loss, precision, recall und f1.

ConnectNet (Pixelklassifizierung)

chip_size

Ganze Zahlen zwischen 0 und der Bildgröße.

gaussian_thresh

0,0 bis 1,0. Der Standardwert ist 0,76.

monitor

valid_loss, accuracy, miou und dice.

mtl_model

linknet oder hourglass.

orient_bin_size

Eine positive Zahl. Die Standardeinstellung ist 20.

orient_theta

Eine positive Zahl. Der Standardwert ist 8.

DeepLabv3 (Pixelklassifizierung)

chip_size

Ganze Zahlen zwischen 0 und der Bildgröße.

class_balancing

true oder false.

focal_loss

true oder false.

ignore_classes

Gültige Klassenwerte.

monitor

valid_loss und accuracy.

mixup

true oder false.

Image Captioner (Bild-zu-Bild-Übersetzung)

chip_size

Ganze Zahlen zwischen 0 und der Bildgröße.

Das Argument decode_params besteht aus den folgenden sechs Parametern:

  • embed_size
  • hidden_size
  • attention_size
  • teacher_forcing
  • dropout
  • pretrained_emb

Der Standardwert ist {'embed_size':100, 'hidden_size':100, 'attention_size':100, 'teacher_forcing':1, 'dropout':0.1, 'pretrained_emb':False}.

monitor

valid_loss, accuracy, corpus_bleu und multi_label_fbeta.

MMDetection (Objekterkennung)

chip_size

Ganze Zahlen zwischen 0 und der Bildgröße.

model

atss, carafe, cascade_rcnn, cascade_rpn, dcn, detectors, double_heads, dynamic_rcnn, empirical_attention, fcos, foveabox, fsaf, ghm, hrnet, libra_rcnn, nas_fcos, pafpn, pisa, regnet, reppoints, res2net, sabl und vfnet.

model_weight

true oder false.

MMSegmentation (Pixelklassifizierung)

chip_size

Ganze Zahlen zwischen 0 und der Bildgröße.

model

ann, apcnet, ccnet, cgnet, danet, deeplabv3, deeplabv3plus, dmnet , dnlnet, emanet, encnet, fastscnn, fcn, gcnet, hrnet, mobilenet_v2, mobilenet_v3, nonlocal_net, ocrnet, ocrnet_base, pointrend, psanet, pspnet, resnest, sem_fpn, unet und upernet.

model_weight

true oder false.

Multi Task Road Extractor (Pixelklassifizierung)

chip_size

Ganze Zahlen zwischen 0 und der Bildgröße.

gaussian_thresh

0,0 bis 1,0. Der Standardwert ist 0,76.

monitor

valid_loss, accuracy, miou und dice.

mtl_model

linknet oder hourglass.

orient_bin_size

Eine positive Zahl. Die Standardeinstellung ist 20.

orient_theta

Eine positive Zahl. Der Standardwert ist 8.

Pyramid Scene Parsing Network (Pixelklassifizierung)

chip_size

Ganze Zahlen zwischen 0 und der Bildgröße.

class_balancing

true oder false.

focal_loss

true oder false.

ignore_classes

Gültige Klassenwerte.

monitor

valid_loss oder accuracy.

mixup

true oder false.

pyramid_sizes

[Faltungs-Layer 1, Faltungs-Layer 2, ... , Faltungs-Layer n]

use_net

true oder false.

RetinaNet (Objekterkennung)

chip_size

Ganze Zahlen zwischen 0 und der Bildgröße.

monitor

valid_loss oder average_precision.

ratios

Verhältniswert 1, Verhältniswert 2, Verhältniswert 3.

Die Standardeinstellung ist 0.5,1,2.

scales

[Maßstabswert 1, Maßstabswert 2, Maßstabswert 3]

Die Standardeinstellung ist [1, 0.8, 0.63].

Single Shot Detector (Objekterkennung)

chip_size

Ganze Zahlen zwischen 0 und der Bildgröße.

Gitternetze

Ganzzahlige Werte größer als 0.

monitor

valid_loss oder average_precision.

ratios

[horizontaler Wert, vertikaler Wert]

zooms

Der Zoomwert, wobei 1,0 der normale Zoomwert ist.

U-Net (Pixelklassifizierung)

chip_size

Ganze Zahlen zwischen 0 und der Bildgröße.

class_balancing

true oder false.

focal_loss

true oder false.

ignore_classes

Gültige Klassenwerte.

monitor

valid_loss oder accuracy.

mixup

true oder false.

Inferenzierungsargumente

Mit den folgenden Argumenten kann gesteuert werden, wie Deep-Learning-Modelle für die Inferenzierung trainiert werden. Die Informationen aus dem Parameter Modelldefinition werden zum Füllen der Argumente in den Inferenzwerkzeugen verwendet. Diese Argumente variieren je nach Modellarchitektur. Vortrainierte ArcGIS-Modelle und benutzerdefinierte Deep-Learning-Modelle enthalten ggf. zusätzliche von dem Werkzeug unterstützte Argumente.

ArgumentInferenztypGültige Werte

batch_size

Objekte klassifizieren

Pixel klassifizieren

Änderung erkennen

Objekte erkennen

Ganzzahlige Werte größer als 0; in der Regel eine ganze Zahl, die eine Potenz von 2n ist.

direction

Pixel klassifizieren

Die verfügbaren Optionen lauten AtoB und BtoA.

Das Argument ist nur für die Architektur CycleGAN verfügbar.

exclude_pad_detections

Objekte erkennen

true oder false.

Das Argument ist nur für SSD, RetinaNet, YOLOv3, DETReg, MMDetection und Faster RCNN verfügbar.

merge_policy

Pixel klassifizieren

Objekte erkennen

Die verfügbaren Optionen sind mean, max und min.

Beim Werkzeug Pixel mit Deep Learning klassifizieren ist das Argument für die Architekturen MultiTaskRoadExtractor und ConnectNet verfügbar. Wenn IsEdgeDetection in der .emd-Datei des Modells vorhanden ist, sind auch die Architekturen BDCNEdgeDetector, HEDEdgeDetector und MMSegmentation verfügbar.

Beim Werkzeug Objekte mit Deep Learning erkennen ist das Argument nur für MaskRCNN verfügbar.

nms_overlap

Objekte erkennen

Ein Gleitkommawert von 0,0 bis 1,0. Die Standardeinstellung ist 0,1.

output_classified_raster

Objekte erkennen

Der Dateipfad und -name für das klassifizierte Ausgabe-Raster.

Das Argument ist nur für MaXDeepLab verfügbar.

padding

Pixel klassifizieren

Änderung erkennen

Objekte erkennen

Ganzzahlige Werte größer als 0 und kleiner als die Hälfte des Wertes der Kachelgröße.

predict_background

Pixel klassifizieren

true oder false.

Das Argument ist für UNET, PSPNET, DeepLab und MMSegmentation verfügbar.

return_probability_raster

Pixel klassifizieren

true oder false.

Wenn ArcGISLearnVersion 1.8.4 oder höher in der .emd-Datei des Modells vorhanden ist, sind die Architekturen MultiTaskRoadExtractor und ConnectNet verfügbar. Bei ArcGISLearnVersion 1.8.4 oder höher und wenn IsEdgeDetection in der .emd-Datei des Modells vorhanden ist, sind auch die Architekturen BDCNEdgeDetector, HEDEdgeDetector und MMSegmentation verfügbar.

score_threshold

Objekte klassifizieren

0 bis 1,0.

test_time_augmentation

Objekte klassifizieren

Pixel klassifizieren

true oder false.

threshold

Pixel klassifizieren

Objekte erkennen

0 bis 1,0.

Beim Werkzeug Pixel mit Deep Learning klassifizieren sind die Architekturen MultiTaskRoadExtractor und ConnectNet verfügbar, wenn ArcGISLearnVersion 1.8.4 oder höher in der .emd-Datei des Modells vorhanden ist. Bei ArcGISLearnVersion 1.8.4 oder höher und wenn IsEdgeDetection in der .emd-Datei des Modells vorhanden ist, sind auch die Architekturen BDCNEdgeDetector, HEDEdgeDetector und MMSegmentation verfügbar.

Beim Werkzeug Objekte mit Deep Learning erkennen ist das Argument für alle Modellarchitekturen verfügbar.

thinning

Pixel klassifizieren

true oder false.

Wenn IsEdgeDetection in der .emd-Datei des Modells vorhanden ist, sind die Architekturen BDCNEdgeDetector, HEDEdgeDetector und MMSegmentation verfügbar.

tile_size

Pixel klassifizieren

Objekte erkennen

Ganzzahlige Werte größer als 0 und kleiner als die Bildgröße.

Beim Werkzeug Pixel mit Deep Learning klassifizieren ist das Argument nur für die Architektur CycleGAN verfügbar.

Beim Werkzeug Objekte mit Deep Learning erkennen ist das Argument nur für MaskRCNN verfügbar.

Verwandte Themen