Argumentos del aprendizaje profundo

Disponible con licencia de Image Analyst.

Los argumentos son una de las muchas formas de controlar cómo se entrenan y utilizan los modelos de aprendizaje profundo. En la primera tabla siguiente figuran los argumentos de modelos admitidos en el entrenamiento de modelos de aprendizaje profundo. En la segunda tabla figuran los argumentos para controlar la forma de utilizar los modelos de aprendizaje profundo en la inferencia.

Argumentos de entrenamiento

En la herramienta Entrenar modelo de aprendizaje profundo se encuentran disponibles los siguientes argumentos para entrenar modelos de aprendizaje profundo. Estos argumentos varían dependiendo de la arquitectura del modelo. Puede cambiar los valores de estos argumentos para entrenar un modelo.

Tipo de modeloArgumentoValores válidos

Detector de cambios (clasificación de píxeles)

attention_type

PAM (módulo de atención piramidal) o BAM (módulo de atención básica).

chip_size

Enteros entre 0 y tamaño de imagen.

monitor

valid_loss, precision, recall y f1.

ConnectNet (clasificación de píxeles)

chip_size

Enteros entre 0 y tamaño de imagen.

gaussian_thresh

0,0 a 1,0. El valor predeterminado es 0,76.

monitor

valid_loss, accuracy, miou y dice.

mtl_model

linknet o hourglass.

orient_bin_size

Número positivo. El valor predeterminado es 20.

orient_theta

Número positivo. El valor predeterminado es 8.

DeepLabv3 (clasificación de píxeles)

chip_size

Enteros entre 0 y tamaño de imagen.

class_balancing

true o false.

focal_loss

true o false.

ignore_classes

Valores de clase válidos.

monitor

valid_loss y accuracy.

mezcla

true o false.

Subtitulador de imágenes (traducción de imágenes)

chip_size

Enteros entre 0 y tamaño de imagen.

El argumento decode_params se compone de los siguientes seis parámetros:

  • embed_size
  • hidden_size
  • attention_size
  • teacher_forcing
  • fracaso
  • pretrained_emb

El valor predeterminado es {'embed_size':100, 'hidden_size':100, 'attention_size':100, 'teacher_forcing':1, 'dropout':0.1, 'pretrained_emb':False}.

monitor

valid_loss, accuracy, corpus_bleu y multi_label_fbeta.

MMDetection (detección de objetos)

chip_size

Enteros entre 0 y tamaño de imagen.

modelo

atss, carafe, cascade_rcnn, cascade_rpn, dcn, detectors, double_heads, dynamic_rcnn, empirical_attention, fcos, foveabox, fsaf, ghm, hrnet, libra_rcnn, nas_fcos, pafpn, pisa, regnet, reppoints, res2net, sabl y vfnet.

model_weight

true o false.

MMSegmentation (clasificación de píxeles)

chip_size

Enteros entre 0 y tamaño de imagen.

modelo

ann, apcnet, ccnet, cgnet, danet, deeplabv3, deeplabv3plus, dmnet , dnlnet, emanet, encnet, fastscnn, fcn, gcnet, hrnet, mobilenet_v2, mobilenet_v3, nonlocal_net, ocrnet, ocrnet_base, pointrend, psanet, pspnet, resnest, sem_fpn, unet y upernet.

model_weight

true o false.

Extractor de carreteras de varias tareas (clasificación de píxeles)

chip_size

Enteros entre 0 y tamaño de imagen.

gaussian_thresh

0,0 a 1,0. El valor predeterminado es 0,76.

monitor

valid_loss, accuracy, miou y dice.

mtl_model

linknet o hourglass.

orient_bin_size

Número positivo. El valor predeterminado es 20.

orient_theta

Número positivo. El valor predeterminado es 8.

Red de análisis de escenas piramidales (clasificación de píxeles)

chip_size

Enteros entre 0 y tamaño de imagen.

class_balancing

true o false.

focal_loss

true o false.

ignore_classes

Valores de clase válidos.

monitor

valid_loss o accuracy.

mezcla

true o false.

pyramid_sizes

[capa de convolución 1, capa de convolución 2, ... , capa de convolución n]

use_net

true o false.

RetinaNet (detección de objetos)

chip_size

Enteros entre 0 y tamaño de imagen.

monitor

valid_loss o average_precision.

relaciones

Valor de relación 1, valor de relación 2, valor de relación 3.

El valor predeterminado es 0.5,1,2.

escalas

[valor de escala 1, valor de escala 2, valor de escala 3]

El valor predeterminado es [1, 0.8, 0.63].

Single Shot Detector (detección de objetos)

chip_size

Enteros entre 0 y tamaño de imagen.

cuadrículas

Valores enteros mayores que 0.

monitor

valid_loss o average_precision.

relaciones

[valor horizontal, valor vertical]

zooms

Valor de zoom en el que 1,0 es un zoom normal.

U-Net (clasificación de píxeles)

chip_size

Enteros entre 0 y tamaño de imagen.

class_balancing

true o false.

focal_loss

true o false.

ignore_classes

Valores de clase válidos.

monitor

valid_loss o accuracy.

mezcla

true o false.

Argumentos de inferencia

Los siguientes argumentos están disponibles para controlar cómo entrenar modelos de aprendizaje profundo para inferencia. La información del parámetro Definición de modelo se utilizará para rellenar Argumentos en las herramientas de inferencia. Estos argumentos varían dependiendo de la arquitectura del modelo. Los modelos preentrenados de ArcGIS y los modelos de aprendizaje profundo personalizados pueden tener argumentos adicionales que son compatibles con las herramientas.

ArgumentoTipo de inferenciaValores válidos

batch_size

Clasificar objetos

Clasificar píxeles

Detectar cambios

Detectar objetos

Valores enteros mayores que 0; suele ser un entero que es una potencia de 2.

dirección

Clasificar píxeles

Las opciones disponibles son AtoB y BtoA.

El argumento solo está disponible para la arquitectura CycleGAN.

exclude_pad_detections

Detectar objetos

true o false.

El argumento está disponible para SSD, RetinaNet, YOLOv3, DETReg, MMDetection y Faster RCNN solamente.

merge_policy

Clasificar píxeles

Detectar objetos

Las opciones disponibles son mean, max y min.

En el caso de la herramienta Clasificar píxeles con aprendizaje profundo, el argumento está disponible para las arquitecturas MultiTaskRoadExtractor y ConnectNet. Si IsEdgeDetection está presente en el archivo .emd del modelo, BDCNEdgeDetector, HEDEdgeDetector y MMSegmentation también son arquitecturas disponibles.

En el caso de la herramienta Detectar objetos con aprendizaje profundo, el argumento solo está disponible para MaskRCNN.

nms_overlap

Detectar objetos

Valor de punto flotante de 0,0 a 1,0. El valor predeterminado es 0,1.

output_classified_raster

Detectar objetos

Nombre y ruta del archivo del raster clasificado de salida.

El argumento solo está disponible para MaXDeepLab.

relleno

Clasificar píxeles

Detectar cambios

Detectar objetos

Valores enteros mayores que 0 y menores que la mitad del valor de tamaño de tesela.

predict_background

Clasificar píxeles

true o false.

El argumento está disponible para UNET, PSPNET, DeepLab y MMSegmentation.

return_probability_raster

Clasificar píxeles

true o false.

Si ArcGISLearnVersion pertenece a la versión 1.8.4 u otra posterior en el archivo .emd del modelo, las arquitecturas MultiTaskRoadExtractor y ConnectNet están disponibles. Si ArcGISLearnVersion pertenece a la versión 1.8.4 u otra posterior yIsEdgeDetection está presente en el archivo .emd del modelo, las arquitecturas BDCNEdgeDetector, HEDEdgeDetector y MMSegmentation también están disponibles.

score_threshold

Clasificar objetos

0 a 1,0.

test_time_augmentation

Clasificar objetos

Clasificar píxeles

true o false.

umbral

Clasificar píxeles

Detectar objetos

0 a 1,0.

En el caso de la herramienta Clasificar píxeles con aprendizaje profundo, si ArcGISLearnVersion pertenece a la versión 1.8.4 u otra posterior en el archivo .emd del modelo, las arquitecturas MultiTaskRoadExtractor y ConnectNet están disponibles. Si ArcGISLearnVersion pertenece a la versión 1.8.4 u otra posterior yIsEdgeDetection está presente en el archivo .emd del modelo, las arquitecturas BDCNEdgeDetector, HEDEdgeDetector y MMSegmentation también están disponibles.

En el caso de la herramienta Detectar objetos con aprendizaje profundo, el argumento está disponible para todas las arquitecturas de modelos.

simplificación

Clasificar píxeles

true o false.

Si IsEdgeDetection está presente en el archivo .emd del modelo, BDCNEdgeDetector, HEDEdgeDetector y MMSegmentation son arquitecturas disponibles.

tile_size

Clasificar píxeles

Detectar objetos

Valores enteros mayores que 0 y menores que el tamaño de la imagen.

En el caso de la herramienta Clasificar píxeles mediante aprendizaje profundo, el argumento solo está disponible para la arquitectura CycleGAN.

En el caso de la herramienta Detectar objetos con aprendizaje profundo, el argumento solo está disponible para MaskRCNN.

Temas relacionados