Disponible avec une licence Image Analyst.
Les arguments sont l’un des nombreux moyens qui permettent de contrôler la façon dont les modèles de Deep Learning sont entraînés et utilisés. Le premier tableau ci-dessous répertorie les arguments de modèle pris en charge pour l’entraînement des modèles de Deep Learning. Le second tableau répertorie les arguments qui permettent de contrôler la manière dont les modèles de Deep Learning sont utilisés pour l’inférence.
Arguments d’entraînement
Les arguments ci-après sont disponibles dans l’outil Entraîner le modèle de Deep Learning pour l’entraînement des modèles de Deep Learning. Ces arguments varient selon l’architecture du modèle. Vous pouvez modifier les valeurs de ces arguments pour entraîner un modèle.
Model type | Argument | Valeur valides |
---|---|---|
Détecteur de changement (classification de pixels) | attention_type | PAM (Pyramid Attention Module) ou BAM (Basic Attention Module). |
chip_size | Entiers compris entre 0 et la taille de l’image. | |
monitor | valid_loss, precision, recall et f1. | |
ConnectNet (classification de pixels) | chip_size | Entiers compris entre 0 et la taille de l’image. |
gaussian_thresh | 0,0 à 1,0. La valeur par défaut est 0,76. | |
monitor | valid_loss, accuracy, miou et dice. | |
mtl_model | linknet ou hourglass. | |
orient_bin_size | Nombre positif. La valeur par défaut est 20. | |
orient_theta | Nombre positif. La valeur par défaut est 8. | |
DeepLabv3 (classification de pixels) | chip_size | Entiers compris entre 0 et la taille de l’image. |
class_balancing | true ou false. | |
focal_loss | true ou false. | |
ignore_classes | Valeurs de classe valides. | |
monitor | valid_loss et accuracy. | |
mixup | true ou false. | |
Créateur de légende d’image (conversion d’images) | chip_size | Entiers compris entre 0 et la taille de l’image. |
L’argument decode_params se compose des six paramètres suivants :
| La valeur par défaut est {'embed_size':100, 'hidden_size':100, 'attention_size':100, 'teacher_forcing':1, 'dropout':0.1, 'pretrained_emb':False}. | |
monitor | valid_loss, accuracy, corpus_bleu etmulti_label_fbeta. | |
MMDetection (détection des objets) | chip_size | Entiers compris entre 0 et la taille de l’image. |
modèle, | atss, carafe, cascade_rcnn, cascade_rpn, dcn, detectors, double_heads, dynamic_rcnn, empirical_attention, fcos, foveabox, fsaf, ghm, hrnet, libra_rcnn, nas_fcos, pafpn, pisa, regnet, reppoints, res2net, sabl et vfnet. | |
model_weight | true ou false. | |
MMSegmentation (classification de pixels) | chip_size | Entiers compris entre 0 et la taille de l’image. |
modèle, | ann, apcnet, ccnet, cgnet, danet, deeplabv3, deeplabv3plus, dmnet , dnlnet, emanet, encnet, fastscnn, fcn, gcnet, hrnet, mobilenet_v2, mobilenet_v3, nonlocal_net, ocrnet, ocrnet_base, pointrend, psanet, pspnet, resnest, sem_fpn, unet et upernet. | |
model_weight | true ou false. | |
Extracteur de routes multitâche (classification de pixels) | chip_size | Entiers compris entre 0 et la taille de l’image. |
gaussian_thresh | 0,0 à 1,0. La valeur par défaut est 0,76. | |
monitor | valid_loss, accuracy, miou et dice. | |
mtl_model | linknet ou hourglass. | |
orient_bin_size | Nombre positif. La valeur par défaut est 20. | |
orient_theta | Nombre positif. La valeur par défaut est 8. | |
Pyramid Scene Parsing Network (classification de pixels) | chip_size | Entiers compris entre 0 et la taille de l’image. |
class_balancing | true ou false. | |
focal_loss | true ou false. | |
ignore_classes | Valeurs de classe valides. | |
monitor | valid_loss ou accuracy. | |
mixup | true ou false. | |
pyramid_sizes | [couche de convolution 1, couche de convolution 2, ... , couche de convolution n] | |
use_net | true ou false. | |
RetinaNet (détection des objets) | chip_size | Entiers compris entre 0 et la taille de l’image. |
monitor | valid_loss ou average_precision. | |
ratios | Valeur de ratio 1, valeur de ratio 2, valeur de ratio 3. La valeur par défaut est 0.5,1,2. | |
scales | [valeur d’échelle 1, valeur d’échelle 2, valeur d’échelle 3] La valeur par défaut est [1, 0.8, 0.63]. | |
Détecteur de tir unique (détection des objets) | chip_size | Entiers compris entre 0 et la taille de l’image. |
carroyages | Valeurs entières supérieures à 0. | |
monitor | valid_loss ou average_precision. | |
ratios | [valeur horizontale, valeur verticale] | |
zooms | Valeur de zoom où 1,0 est le zoom normal. | |
U-Net (classification de pixels) | chip_size | Entiers compris entre 0 et la taille de l’image. |
class_balancing | true ou false. | |
focal_loss | true ou false. | |
ignore_classes | Valeurs de classe valides. | |
monitor | valid_loss ou accuracy. | |
mixup | true ou false. |
Arguments d’inférence
Les arguments ci-après permettent de contrôler la manière dont les modèles de Deep Learning sont entraînés pour l’inférence. Les informations du paramètre Définition de modèle sont utilisées pour renseigner le paramètre Arguments dans les outils d’inférence. Ces arguments varient selon l’architecture du modèle. Les modèles pré-entraînés ArcGIS et les modèles de Deep Learning personnalisés peuvent comporter des arguments supplémentaires pris en charge par l’outil.
Argument | Type d’inférence | Valeur valides |
---|---|---|
batch_size | Classer les objets Classer les pixels Détecter les modifications Détecter des objets | Valeurs entières supérieures à 0 ; généralement un entier à la puissance 2n. |
direction | Classer les pixels | Les options disponibles sont AtoB et BtoA. L’argument est uniquement disponible pour l’architecture CycleGAN. |
exclude_pad_detections | Détecter des objets | true ou false. L’argument est disponible pour SSD, RetinaNet, YOLOv3, DETReg, MMDetection et Faster RCNN uniquement. |
merge_policy | Classer les pixels Détecter des objets | Les options disponibles sont mean, max et min. Pour l’outil Classer des pixels à l’aide du Deep Learning, l’argument est disponible pour les architectures MultiTaskRoadExtractor et ConnectNet. Si IsEdgeDetection est présent dans le fichier .emd du modèle, les architectures BDCNEdgeDetector, HEDEdgeDetector et MMSegmentation sont également disponibles. Pour l’outil Détecter des objets à l’aide du Deep Learning, l’argument est uniquement disponible pour MaskRCNN. |
nms_overlap | Détecter des objets | Valeur à virgule flottante comprise entre 0,0 et 1,0. La valeur par défaut est 0,1. |
output_classified_raster | Détecter des objets | Chemin et nom de fichier du raster classé en sortie. L’argument est disponible uniquement pour MaXDeepLab. |
remplissage | Classer les pixels Détecter les modifications Détecter des objets | Valeurs entières supérieures à 0 et inférieures à la moitié de la valeur de la taille de tuile. |
predict_background | Classer les pixels | true ou false. L’argument est disponible pour UNET, PSPNET, DeepLab et MMSegmentation. |
return_probability_raster | Classer les pixels | true ou false. Si ArcGISLearnVersion est de version 1.8.4 ou supérieure dans le fichier .emd du modèle, les architectures MultiTaskRoadExtractor et ConnectNet sont disponibles. Si ArcGISLearnVersion est de version 1.8.4 ou supérieure et que IsEdgeDetection est présent dans le fichier .emd du modèle, les architectures BDCNEdgeDetector, HEDEdgeDetector et MMSegmentation sont également disponibles. |
score_threshold | Classer les objets | Compris entre 0 et 1,0. |
test_time_augmentation | Classer les objets Classer les pixels | true ou false. |
seuil | Classer les pixels Détecter des objets | Compris entre 0 et 1,0. Pour l’outil Classer des pixels à l’aide du Deep Learning, si ArcGISLearnVersion est de version 1.8.4 ou supérieure dans le fichier .emd du modèle, les architectures MultiTaskRoadExtractor et ConnectNet sont disponibles. Si ArcGISLearnVersion est de version 1.8.4 ou supérieure et que IsEdgeDetection est présent dans le fichier .emd du modèle, les architectures BDCNEdgeDetector, HEDEdgeDetector et MMSegmentation sont également disponibles. Pour l’outil Détecter des objets à l’aide du Deep Learning, l’argument est disponible pour toutes les architectures de modèle. |
affiner | Classer les pixels | true ou false. Si IsEdgeDetection est présent dans le fichier .emd du modèle, les architectures BDCNEdgeDetector, HEDEdgeDetector et MMSegmentation sont disponibles. |
tile_size | Classer les pixels Détecter des objets | Valeurs entières supérieures à 0 et inférieures à la taille de l’image. Pour l’outil Classer des pixels à l’aide du Deep Learning, l’argument est disponible uniquement pour l’architecture CycleGAN. Pour l’outil Détecter des objets à l’aide du Deep Learning, l’argument est uniquement disponible pour MaskRCNN. |
Rubriques connexes
Vous avez un commentaire à formuler concernant cette rubrique ?