Arguments de Deep learning

Disponible avec une licence Image Analyst.

Les arguments sont l’un des nombreux moyens qui permettent de contrôler la façon dont les modèles de Deep Learning sont entraînés et utilisés. Le premier tableau ci-dessous répertorie les arguments de modèle pris en charge pour l’entraînement des modèles de Deep Learning. Le second tableau répertorie les arguments qui permettent de contrôler la manière dont les modèles de Deep Learning sont utilisés pour l’inférence.

Arguments d’entraînement

Les arguments ci-après sont disponibles dans l’outil Entraîner le modèle de Deep Learning pour l’entraînement des modèles de Deep Learning. Ces arguments varient selon l’architecture du modèle. Vous pouvez modifier les valeurs de ces arguments pour entraîner un modèle.

Model typeArgumentValeur valides

Détecteur de changement (classification de pixels)

attention_type

PAM (Pyramid Attention Module) ou BAM (Basic Attention Module).

chip_size

Entiers compris entre 0 et la taille de l’image.

monitor

valid_loss, precision, recall et f1.

ConnectNet (classification de pixels)

chip_size

Entiers compris entre 0 et la taille de l’image.

gaussian_thresh

0,0 à 1,0. La valeur par défaut est 0,76.

monitor

valid_loss, accuracy, miou et dice.

mtl_model

linknet ou hourglass.

orient_bin_size

Nombre positif. La valeur par défaut est 20.

orient_theta

Nombre positif. La valeur par défaut est 8.

DeepLabv3 (classification de pixels)

chip_size

Entiers compris entre 0 et la taille de l’image.

class_balancing

true ou false.

focal_loss

true ou false.

ignore_classes

Valeurs de classe valides.

monitor

valid_loss et accuracy.

mixup

true ou false.

Créateur de légende d’image (conversion d’images)

chip_size

Entiers compris entre 0 et la taille de l’image.

L’argument decode_params se compose des six paramètres suivants :

  • embed_size
  • hidden_size
  • attention_size
  • teacher_forcing
  • dropout
  • pretrained_emb

La valeur par défaut est {'embed_size':100, 'hidden_size':100, 'attention_size':100, 'teacher_forcing':1, 'dropout':0.1, 'pretrained_emb':False}.

monitor

valid_loss, accuracy, corpus_bleu etmulti_label_fbeta.

MMDetection (détection des objets)

chip_size

Entiers compris entre 0 et la taille de l’image.

modèle,

atss, carafe, cascade_rcnn, cascade_rpn, dcn, detectors, double_heads, dynamic_rcnn, empirical_attention, fcos, foveabox, fsaf, ghm, hrnet, libra_rcnn, nas_fcos, pafpn, pisa, regnet, reppoints, res2net, sabl et vfnet.

model_weight

true ou false.

MMSegmentation (classification de pixels)

chip_size

Entiers compris entre 0 et la taille de l’image.

modèle,

ann, apcnet, ccnet, cgnet, danet, deeplabv3, deeplabv3plus, dmnet , dnlnet, emanet, encnet, fastscnn, fcn, gcnet, hrnet, mobilenet_v2, mobilenet_v3, nonlocal_net, ocrnet, ocrnet_base, pointrend, psanet, pspnet, resnest, sem_fpn, unet et upernet.

model_weight

true ou false.

Extracteur de routes multitâche (classification de pixels)

chip_size

Entiers compris entre 0 et la taille de l’image.

gaussian_thresh

0,0 à 1,0. La valeur par défaut est 0,76.

monitor

valid_loss, accuracy, miou et dice.

mtl_model

linknet ou hourglass.

orient_bin_size

Nombre positif. La valeur par défaut est 20.

orient_theta

Nombre positif. La valeur par défaut est 8.

Pyramid Scene Parsing Network (classification de pixels)

chip_size

Entiers compris entre 0 et la taille de l’image.

class_balancing

true ou false.

focal_loss

true ou false.

ignore_classes

Valeurs de classe valides.

monitor

valid_loss ou accuracy.

mixup

true ou false.

pyramid_sizes

[couche de convolution 1, couche de convolution 2, ... , couche de convolution n]

use_net

true ou false.

RetinaNet (détection des objets)

chip_size

Entiers compris entre 0 et la taille de l’image.

monitor

valid_loss ou average_precision.

ratios

Valeur de ratio 1, valeur de ratio 2, valeur de ratio 3.

La valeur par défaut est 0.5,1,2.

scales

[valeur d’échelle 1, valeur d’échelle 2, valeur d’échelle 3]

La valeur par défaut est [1, 0.8, 0.63].

Détecteur de tir unique (détection des objets)

chip_size

Entiers compris entre 0 et la taille de l’image.

carroyages

Valeurs entières supérieures à 0.

monitor

valid_loss ou average_precision.

ratios

[valeur horizontale, valeur verticale]

zooms

Valeur de zoom où 1,0 est le zoom normal.

U-Net (classification de pixels)

chip_size

Entiers compris entre 0 et la taille de l’image.

class_balancing

true ou false.

focal_loss

true ou false.

ignore_classes

Valeurs de classe valides.

monitor

valid_loss ou accuracy.

mixup

true ou false.

Arguments d’inférence

Les arguments ci-après permettent de contrôler la manière dont les modèles de Deep Learning sont entraînés pour l’inférence. Les informations du paramètre Définition de modèle sont utilisées pour renseigner le paramètre Arguments dans les outils d’inférence. Ces arguments varient selon l’architecture du modèle. Les modèles pré-entraînés ArcGIS et les modèles de Deep Learning personnalisés peuvent comporter des arguments supplémentaires pris en charge par l’outil.

ArgumentType d’inférenceValeur valides

batch_size

Classer les objets

Classer les pixels

Détecter les modifications

Détecter des objets

Valeurs entières supérieures à 0 ; généralement un entier à la puissance 2n.

direction

Classer les pixels

Les options disponibles sont AtoB et BtoA.

L’argument est uniquement disponible pour l’architecture CycleGAN.

exclude_pad_detections

Détecter des objets

true ou false.

L’argument est disponible pour SSD, RetinaNet, YOLOv3, DETReg, MMDetection et Faster RCNN uniquement.

merge_policy

Classer les pixels

Détecter des objets

Les options disponibles sont mean, max et min.

Pour l’outil Classer des pixels à l’aide du Deep Learning, l’argument est disponible pour les architectures MultiTaskRoadExtractor et ConnectNet. Si IsEdgeDetection est présent dans le fichier .emd du modèle, les architectures BDCNEdgeDetector, HEDEdgeDetector et MMSegmentation sont également disponibles.

Pour l’outil Détecter des objets à l’aide du Deep Learning, l’argument est uniquement disponible pour MaskRCNN.

nms_overlap

Détecter des objets

Valeur à virgule flottante comprise entre 0,0 et 1,0. La valeur par défaut est 0,1.

output_classified_raster

Détecter des objets

Chemin et nom de fichier du raster classé en sortie.

L’argument est disponible uniquement pour MaXDeepLab.

remplissage

Classer les pixels

Détecter les modifications

Détecter des objets

Valeurs entières supérieures à 0 et inférieures à la moitié de la valeur de la taille de tuile.

predict_background

Classer les pixels

true ou false.

L’argument est disponible pour UNET, PSPNET, DeepLab et MMSegmentation.

return_probability_raster

Classer les pixels

true ou false.

Si ArcGISLearnVersion est de version 1.8.4 ou supérieure dans le fichier .emd du modèle, les architectures MultiTaskRoadExtractor et ConnectNet sont disponibles. Si ArcGISLearnVersion est de version 1.8.4 ou supérieure et que IsEdgeDetection est présent dans le fichier .emd du modèle, les architectures BDCNEdgeDetector, HEDEdgeDetector et MMSegmentation sont également disponibles.

score_threshold

Classer les objets

Compris entre 0 et 1,0.

test_time_augmentation

Classer les objets

Classer les pixels

true ou false.

seuil

Classer les pixels

Détecter des objets

Compris entre 0 et 1,0.

Pour l’outil Classer des pixels à l’aide du Deep Learning, si ArcGISLearnVersion est de version 1.8.4 ou supérieure dans le fichier .emd du modèle, les architectures MultiTaskRoadExtractor et ConnectNet sont disponibles. Si ArcGISLearnVersion est de version 1.8.4 ou supérieure et que IsEdgeDetection est présent dans le fichier .emd du modèle, les architectures BDCNEdgeDetector, HEDEdgeDetector et MMSegmentation sont également disponibles.

Pour l’outil Détecter des objets à l’aide du Deep Learning, l’argument est disponible pour toutes les architectures de modèle.

affiner

Classer les pixels

true ou false.

Si IsEdgeDetection est présent dans le fichier .emd du modèle, les architectures BDCNEdgeDetector, HEDEdgeDetector et MMSegmentation sont disponibles.

tile_size

Classer les pixels

Détecter des objets

Valeurs entières supérieures à 0 et inférieures à la taille de l’image.

Pour l’outil Classer des pixels à l’aide du Deep Learning, l’argument est disponible uniquement pour l’architecture CycleGAN.

Pour l’outil Détecter des objets à l’aide du Deep Learning, l’argument est uniquement disponible pour MaskRCNN.

Rubriques connexes