训练深度学习模型 (Image Analyst)

获得 Image Analyst 许可后可用。

摘要

使用导出训练数据进行深度学习工具的输出训练深度学习模型。

使用情况

  • 该工具使用深度学习框架训练深度学习模型。

  • 要设置计算机以在 ArcGIS Pro 中使用深度学习框架,请参阅安装 ArcGIS 的深度学习框架

  • 如果要在离线环境中训练模型,请参阅离线环境的其他安装以获取详细信息。

  • 该工具还可用于对现有经过训练的模型进行微调。 例如,可以对已针对汽车进行了训练的现有模型进行微调,以训练用于识别卡车的模型。

  • 要使用 GPU 运行此工具,请将处理器类型环境设置为 GPU。 如果您具有多个 GPU,还可以指定 GPU ID 环境。

  • 该工具的输入训练数据必须包括从导出训练数据进行深度学习工具生成的影像和标注文件夹。

  • 有关运行此工具的要求以及您可能遇到的问题的信息,请参阅深度学习常见问题

  • 有关深度学习的详细信息,请参阅 ArcGIS Pro 中的深度学习

参数

标注说明数据类型
输入训练数据

包含训练模型所需的影像片、标注和统计数据的文件夹。 此数据为导出训练数据进行深度学习工具的输出。

当满足以下条件时,支持多个输入文件夹:

  • 元数据格式必须是以下格式之一:分类切片、标注切片、多标注切片、PASCAL 视觉对象类或 RCNN 掩码。
  • 所有训练数据必须具有相同的元数据格式。
  • 所有训练数据必须具有相同的波段数。
  • 所有训练数据必须具有相同的切片大小。

Folder
输出模型

将存储经训练模型的输出文件夹位置。

Folder
最大时期
(可选)

将用于训练模型的最大时期数。 最大新时期值为 1 意味着数据集将通过神经网络向前和向后传递一次。 默认值为 20。

Long
模型类型
(可选)

指定将用于训练深度学习模型的模型类型。

  • 单帧检测器(对象检测)单帧检测器 (SSD) 方法将用于训练模型。 SSD 将用于对象检测。 该模型类型的输入训练数据使用 Pascal 可视化对象类元数据格式。
  • U-Net(像素分类)U-Net 方法将用于训练模型。 U-Net 用于像素分类。
  • 要素分类器(对象分类)“要素分类器”方法将用于训练模型。 可将其用于对象或图像分类。
  • 金字塔场景解析网络(像素分类)金字塔场景解析网络 (PSPNET) 方法将用于训练模型。 PSPNET 用于像素分类。
  • RetinaNet(对象检测)RetinaNet 方法将用于训练模型。 RetinaNet 将用于对象检测。 该模型类型的输入训练数据使用 Pascal 可视化对象类元数据格式。
  • MaskRCNN(对象检测)MaskRCNN 方法将用于训练模型。 MaskRCNN 将用于对象检测。 可将此方法用于实例分割,即对影像中对象的精确划分。 此模型类型可用于检测建筑物覆盖区。 该类型将 MaskRCNN 元数据格式作为输入用于训练数据。 输入训练数据的类值必须从 1 开始。 只能使用支持 CUDA 的 GPU 来训练此模型类型。
  • YOLOv3(对象检测)YOLOv3 方法将用于训练模型。 YOLOv3 将用于对象检测。
  • DeepLabV3(像素分类)DeepLabV3 方法将用于训练模型。 DeepLab 用于像素分类。
  • FasterRCNN(对象检测)FasterRCNN 方法将用于训练模型。 FasterRCNN 将用于对象检测。
  • BDCN 边缘检测器(像素分类)双向级联网络 (BDCN) 架构将用于训练模型。 BDCN 边缘检测器用于像素分类。 此方法对于改进不同比例对象的边缘检测非常有用。
  • HED 边缘检测器(像素分类)整体嵌套边缘检测 (HED) 架构将用于训练模型。 HED 边缘检测器用于像素分类。 此方法对于边缘和对象边缘检测非常有用。
  • 多任务道路提取器(像素分类)多任务道路提取器架构将用于训练模型。 多任务道路提取器可用于像素分类。 此方法对于从卫星影像提取道路网络非常有用。
  • ConnectNet(像素分类)ConnectNet 架构将用于训练模型。 ConnectNet 用于像素分类。 此方法对于从卫星影像提取道路网络非常有用。
  • Pix2Pix(影像转换)Pix2Pix 方法将用于训练模型。 Pix2Pix 可用于影像之间的转换。 此方法将创建一个模型对象,该模型对象会将一种类型的影像生成为另一种类型影像。 该模型类型的输入训练数据使用“导出切片”元数据格式。
  • CycleGAN(影像转换)CycleGAN 方法将用于训练模型。 CycleGAN 可用于影像之间的转换。 此方法将创建一个模型对象,该模型对象会将一种类型的影像生成为另一种类型影像。 这种方法的独特之处在于,要训练的影像不需要重叠。 该模型类型的输入训练数据使用 CycleGAN 元数据格式。
  • 超分辨率(影像转换)超分辨率方法将用于训练模型。 超分辨率可用于影像之间的转换。 这种方法将创建一个模型对象,该模型对象可以提高分辨率并改善影像质量。 该模型类型的输入训练数据使用“导出切片”元数据格式。
  • 变化检测器(像素分类)变化检测器方法将用于训练模型。 变化检测器用于像素分类。 这种方法将创建一个模型对象,该模型对象将使用两个时空影像来创建变化的分类栅格。 该模型类型的输入训练数据使用“分类切片”元数据格式。
  • 图像标题生成器(影像转换)图像标题生成器方法将用于训练模型。 图像标题生成器可用于图像到文本的转换。 此方法将创建一个用于为图像生成文本标题的模型。
  • Siam Mask(对象追踪器)Siam Mask 方法将用于训练模型。 Siam Mask 将用于在视频中进行对象检测。 该模型使用视频帧进行训练,并检测每一帧中对象的类别和边界框。 此模型类型的输入训练数据使用 MaskRCNN 元数据格式。
  • MMDetection(目标检测)MMDetection 方法将用于训练模型。 MMDetection 将用于对象检测。 受支持的元数据格式包括 PASCAL 视觉对象类矩形和 KITTI 矩形。
  • MMSegmentation(像素分类)MMSegmentation 方法将用于训练模型。 MMDetection 用于像素分类。 受支持的元数据格式为分类切片。
  • 深度排序(对象追踪器)深度排序方法将用于训练模型。 深度排序将用于在视频中进行对象检测。 该模型使用视频帧进行训练,并检测每一帧中对象的类别和边界框。 该模型类型的输入训练数据使用 Imagenet 元数据格式。 Siam Mask 在追踪对象时非常有用,而深度排序在训练模型以追踪多个对象时非常有用。
  • Pix2PixHD(影像转换)Pix2PixHD 方法将用于训练模型。 Pix2PixHD 可用于影像之间的转换。 此方法将创建一个模型对象,该模型对象会将一种类型的影像生成为另一种类型影像。 该模型类型的输入训练数据使用“导出切片”元数据格式。
  • MaX-DeepLab(全景分割)MaX-DeepLab 方法将用于训练模型。 用于全景分割的 MaX-DeepLab。 此方法将创建一个模型对象,该模型对象会将生成影像和要素。 此模型类型的输入训练数据使用全景元数据格式。
  • DETReg(对象检测)DETReg 方法将用于训练模型。 DETReg 将用于对象检测。 该模型类型的输入训练数据使用 Pascal 可视化对象类。 此模型类型为 GPU 密集型;需要具有至少 16 GB 内存的专用 GPU 才能正常运行。
String
批大小
(可选)

一次需要处理以便用于训练的训练样本数。

增加批处理大小可以提高工具性能;但是,随着批处理大小的增加,会占用更多内存。 如果发生内存不足错误,请使用较小的批处理大小。

Long
模型参数
(可选)

函数参数在 Python 栅格函数类中定义。 您可以在此列出其他深度学习参数和用于试验和优化的参数,例如用于调整灵敏度的置信度阈值。 参数名称将通过读取 Python 模块进行填充。

当您将单帧检测器(对象检测)选为模型类型参数值时,模型参数参数将使用以下参数进行填充:

  • 格网 - 为进行处理将图像分割成的格网数。 将此参数设置为 4 意味着影像将被划分为 4 x 4 或 16 个格网像元。 如果未指定任何值,则将根据输入影像计算最佳格网值。
  • 缩放 - 每个格网像元将按比例进行扩大或缩小的缩放级别数。 将此参数设置为 1 意味着所有格网像元都将保持相同的大小或缩放级别。 缩放级别为 2 表示所有格网像元都将变成两倍大(放大 100%)。 提供缩放级别列表意味着将使用列表中的所有数字来缩放所有格网像元。 默认值为 1.0。
  • 比率 - 用于锚点框的纵横比列表。 在对象检测中,锚点框表示要预测的对象的理想位置、形状和大小。 将此参数设置为 [1.0,1.0]、[1.0,0.5] 表示锚点框是正方形 (1:1) 或水平边大小为垂直边一半 (1:0.5) 的矩形。 默认值为 [1.0, 1.0]。
  • monitor - 指定在检查点和提前停止时要监控的指标。 可用指标包括 valid_lossaverage_precision。 默认值为 valid_loss

当您选择像素分类模型(例如,金字塔场景解析网络(像素分类)U-Net(像素分类)DeepLabv3(像素分类))作为模型类型参数值时,模型参数参数将使用以下参数进行填充:

  • use_net - 在金字塔池化完成后,指定是否使用 U-Net 解码器来恢复数据。 默认值为 True。 此参数特定于金字塔场景解析网络模型。
  • pyramid_sizes - 要应用于不同子区域的卷积图层的数量和大小。 默认值为 [1,2,3,6]。 此参数特定于金字塔场景解析网络模型。
  • mixup - 指定是否使用 mixup 增强和 mixup 损失。 默认值为 False
  • class_balancing - 指定是否平衡与每类像素的频率成反比的交叉熵损失。 默认值为 False
  • focus_loss - 指定是否使用焦点损失。 默认值为 False
  • ignore_classes - 包含模型不会在其上发生损失的类值列表。
  • monitor - 指定在检查点和提前停止时要监控的指标。 可用指标包括 valid_lossaccuracy。 默认值为 valid_loss

当选择 RetinaNet(对象检测)作为模型类型参数值时,模型参数参数将使用以下参数进行填充:

  • 比例 - 每个像元将按比例进行扩大或缩小的比例级数。 默认值为 [1, 0.8, 0.63]。
  • 比率 - 锚点框的纵横比。 默认值为 0.5,1,2。
  • monitor - 指定在检查点和提前停止时要监控的指标。 可用指标包括 valid_lossaverage_precision。 默认值为 valid_loss

当您将多任务道路提取器(像素分类)ConnectNet(像素分类)选为模型类型参数值时,模型参数参数将使用以下参数进行填充:

  • gaussian_thresh - 将设置高斯阈值,该阈值用于设置所需的道路宽度。 有效范围是 0.0 至 1.0。 默认值为 0.76。
  • orient_bin_size - 设置方向角的图格大小。 默认值为 20。
  • orient_theta - 设置方向掩膜的宽度。 默认值为 8。
  • mtl_model - 设置将用于创建模型的架构类型。 对于神经架构,有效的选择是分别基于 Linknet 或基于 Hourglass 的 linknethourglass。 默认值为 hourglass
  • monitor - 指定在检查点和提前停止时要监控的指标。 可用指标包括 valid_lossaccuracymioudice。 默认值为 valid_loss

当选择图像标题生成器(影像转换)作为模型类型参数值时,模型参数参数将使用以下参数进行填充:

  • decode_params - 一种用于控制图像标题生成器运行方式的字典。 默认值为 {'embed_size':100, 'hidden_size':100, 'attention_size':100, 'teacher_forcing':1, 'dropout':0.1, 'pretrained_emb':False}
  • chip_size - 设置用于训练模型的图像大小。 图像将被裁剪为指定的片大小。 如果图像大小小于片大小,则使用图像大小。 默认大小为 224 像素。
  • monitor - 指定在检查点和提前停止时要监控的指标。 可用指标包括 valid_lossaccuracycorpus_bleumulti_label_fbeta。 默认值为 valid_loss
decode_params 参数由以下六个参数组成:
  • embed_size - 设置嵌入大小。 神经网络中的默认设置为 100 个图层。
  • hidden_size - 设置隐藏图层大小。 神经网络中的默认设置为 100 个图层。
  • attention_size - 设置中间注意力图层大小。 神经网络中的默认设置为 100 个图层。
  • teacher_forcing - 设置教师强制的概率。 教师强制是一种用于训练递归神经网络的策略。 该策略可在反向传播过程中将先前时间步长的模型输出用作输入而非先前的输出。 有效范围是 0.0 至 1.0。 默认值为 1。
  • 辍学 - 设置辍学概率。 有效范围是 0.0 至 1.0。 默认值为 0.1。
  • pretrained_emb - 设置预训练嵌入标记。 如果为 True,则它将使用快速文本嵌入。 如果为 False,则它将不使用预训练文本嵌入。 默认值为 False。

当您将变化检测器(像素分类)选为模型类型参数值时,模型参数参数将使用以下参数进行填充:

  • attention_type - 指定模块类型。 模块选择为 PAM(金字塔注意事项模块)或 BAM(基本注意事项模块)。 默认值为 PAM
  • monitor - 指定在检查点和提前停止时要监控的指标。 可用指标包括 valid_lossprecisionrecallf1。 默认值为 valid_loss

当选择 MMDetection(对象检测)作为模型类型参数值时,模型参数参数将使用以下参数进行填充:

  • model - 用于训练模型的骨干模型。 可用选择包括: atsscarafecascade_rcnncascade_rpndcndetectorsdouble_headsdynamic_rcnnempirical_attentionfcosfoveaboxfsafghmhrnetlibra_rcnnnas_fcospafpnpisaregnetreppointsres2netsablvfnet。 默认值为 cascade_rcnn
  • model_weight - 指定将使用的预训练模型权重。 默认值为 false。 该值也可以是来自 MMDetection 资料档案库的包含模型权重的配置文件的路径。

当您将 MMSegmentation(像素分类)选为模型类型参数值时,模型参数参数将使用以下参数进行填充:

  • model - 用于训练模型的骨干模型。 可用选择包括: annapcnetccnetcgnetdanetdeeplabv3deeplabv3plusdmnet dnlnetemanetencnetfastscnnfcngcnethrnetmobilenet_v2mobilenet_v3nonlocal_netocrnetocrnet_basepointrendpsanetpspnetresnestsem_fpnunetupernet。 默认值为 deeplabv3
  • model_weight - 指定将使用的预训练模型权重。 默认值为 false。 该值也可以是来自 MMSegmentation 资料档案库的包含模型权重的配置文件的路径。

所有模块类型均支持 chip_size 参数, 即训练样本的影像片大小。 将从输入训练数据参数中指定的文件夹中的 .emd 文件提取影像片大小。

Value Table
学习率
(可选)

在整个训练过程中,现有信息将被新获取的信息覆盖的比率。 如果未指定任何值,则系统将在训练过程中从学习曲线中提取最佳学习率。

Double
骨干模型
(可选)

指定要用作训练新模型的架构的、预先配置的神经网络。 这种方法称为迁移学习。

此外,可以使用 timm: 作为前缀指定 PyTorch 图像模型 (timm) 中支持的卷积神经网络,例如 timm:resnet31timm:inception_v4timm:efficientnet_b3 等。

  • DenseNet-121预先配置的模型将是在 Imagenet 数据集上训练的密集网络,其中包含一百万个以上的影像,且深度为 121 个图层。 与使用求和来合并图层的 RESNET 不同,DenseNet 使用串联来合并图层。
  • DenseNet-161预先配置的模型将是在 Imagenet 数据集上训练的密集网络,其中包含一百万个以上的影像,且深度为 161 个图层。 与使用求和来合并图层的 RESNET 不同,DenseNet 使用串联来合并图层。
  • DenseNet-169预先配置的模型将是在 Imagenet 数据集上训练的密集网络,其中包含一百万个以上的影像,且深度为 169 个图层。 与使用求和来合并图层的 RESNET 不同,DenseNet 使用串联来合并图层。
  • DenseNet-201预先配置的模型将是在 Imagenet 数据集上训练的密集网络,其中包含一百万个以上的影像,且深度为 201 个图层。 与使用求和来合并图层的 RESNET 不同,DenseNet 使用串联来合并图层。
  • MobileNet 2 版由于这种预先配置的模型所使用的内存较少,因此将在 Imagenet 数据库上进行训练,且深度为 54 个图层,适用于边设备计算。
  • ResNet-18预先配置的模型将是在 Imagenet 数据集上训练的残差网络,其中包含一百万个以上的影像,且深度为 18 个图层。
  • ResNet-34预先配置的模型将是在 Imagenet 数据集上训练的残差网络,其中包含一百万个以上的影像,且深度为 34 个图层。 这是默认设置。
  • ResNet-50预先配置的模型将是在 Imagenet 数据集上训练的残差网络,其中包含一百万个以上的影像,且深度为 50 个图层。
  • ResNet-101预先配置的模型将是在 Imagenet 数据集上训练的残差网络,其中包含一百万个以上的影像,且深度为 101 个图层。
  • ResNet-152预先配置的模型将是在 Imagenet 数据集上训练的残差网络,其中包含一百万个以上的影像,且深度为 152 个图层。
  • VGG-11预先配置的模型将是在 Imagenet 数据集上训练的卷积神经网络,其中包含一百万个以上的影像以将影像分类为 1000 个对象类别,且深度为 11 个图层。
  • 使用批量归一化的 VGG-11这种预先配置的模型将基于 VGG 网络,但具有批量归一化功能,这意味着网络中的每个图层都已归一化。 它在 Imagenet 数据集上进行了训练,具有 11 个图层。
  • VGG-13预先配置的模型将是在 Imagenet 数据集上训练的卷积神经网络,其中包含一百万个以上的影像以将影像分类为 1000 个对象类别,且深度为 13 个图层。
  • 使用批量归一化的 VGG-13这种预先配置的模型将基于 VGG 网络,但具有批量归一化功能,这意味着网络中的每个图层都已归一化。 它在 Imagenet 数据集上进行了训练,具有 13 个图层。
  • VGG-16预先配置的模型将是在 Imagenet 数据集上训练的卷积神经网络,其中包含一百万个以上的影像以将影像分类为 1000 个对象类别,且深度为 16 个图层。
  • 使用批量归一化的 VGG-16这种预先配置的模型将基于 VGG 网络,但具有批量归一化功能,这意味着网络中的每个图层都已归一化。 它在 Imagenet 数据集上进行了训练,具有 16 个图层。
  • VGG-19预先配置的模型将是在 Imagenet 数据集上训练的卷积神经网络,其中包含一百万个以上的影像以将影像分类为 1000 个对象类别,且深度为 19 个图层。
  • 使用批量归一化的 VGG-19这种预先配置的模型将基于 VGG 网络,但具有批量归一化功能,这意味着网络中的每个图层都已归一化。 它在 Imagenet 数据集上进行了训练,具有 19 个图层。
  • DarkNet-53预先配置的模型将是在 Imagenet 数据集上训练的卷积神经网络,其中包含一百万个以上的影像,且深度为 53 个图层。
  • Reid_v1预先配置的模型将是在 Imagenet 数据集上训练的用于对象追踪的卷积神经网络。
  • Reid_v2预先配置的模型将是在 Imagenet 数据集上训练的用于对象追踪的卷积神经网络。
String
预训练模型
(可选)

将用于微调新模型的预训练模型。 输入为 Esri 模型定义文件 (.emd) 或深度学习包文件 (.dlpk)。

可以对具有相似类的预训练模型进行微调以适应新模型。 预训练模型必须已使用将用于训练新模型的相同模型类型和骨干模型进行了训练。

File
验证百分比
(可选)

将用于验证模型的训练样本的百分比。 默认值为 10。

Double
当模型停止改进时停止
(可选)

指定是否将实施提前停止。

  • 选中 - 将实施提前停止,当模型不再改进时,无论所指定的最大新时期参数值是什么,模型训练都将停止。 这是默认设置。
  • 未选中 - 不会实施提前停止,模型训练将一直持续,直至达到最大新时期参数值为止。
Boolean
冻结模型
(可选)

指定是否冻结预训练模型中的骨干层,以使权重和偏差保持原始设计。

  • 选中 - 将冻结骨干图层,预定义的权重和偏差不会在骨干模型参数中进行更改。 这是默认设置。
  • 未选中 - 不会冻结骨干图层,骨干模型参数的权重和偏差可能会进行更改以更好地适合您的训练样本。 这将需要花费更多的时间来处理,但通常会产生更好的结果。

Boolean

派生输出

标注说明数据类型
输出模型

输出已训练模型文件。

File

TrainDeepLearningModel(in_folder, out_folder, {max_epochs}, {model_type}, {batch_size}, {arguments}, {learning_rate}, {backbone_model}, {pretrained_model}, {validation_percentage}, {stop_training}, {freeze})
名称说明数据类型
in_folder
[in_folder,...]

包含训练模型所需的影像片、标注和统计数据的文件夹。 此数据为导出训练数据进行深度学习工具的输出。

当满足以下条件时,支持多个输入文件夹:

  • 元数据格式必须是以下格式之一:分类切片、标注切片、多标注切片、PASCAL 视觉对象类或 RCNN 掩码。
  • 所有训练数据必须具有相同的元数据格式。
  • 所有训练数据必须具有相同的波段数。
  • 所有训练数据必须具有相同的切片大小。

Folder
out_folder

将存储经训练模型的输出文件夹位置。

Folder
max_epochs
(可选)

将用于训练模型的最大时期数。 最大新时期值为 1 意味着数据集将通过神经网络向前和向后传递一次。 默认值为 20。

Long
model_type
(可选)

指定将用于训练深度学习模型的模型类型。

  • SSD单帧检测器 (SSD) 方法将用于训练模型。 SSD 将用于对象检测。 该模型类型的输入训练数据使用 Pascal 可视化对象类元数据格式。
  • UNETU-Net 方法将用于训练模型。 U-Net 用于像素分类。
  • FEATURE_CLASSIFIER“要素分类器”方法将用于训练模型。 可将其用于对象或图像分类。
  • PSPNET金字塔场景解析网络 (PSPNET) 方法将用于训练模型。 PSPNET 用于像素分类。
  • RETINANETRetinaNet 方法将用于训练模型。 RetinaNet 将用于对象检测。 该模型类型的输入训练数据使用 Pascal 可视化对象类元数据格式。
  • MASKRCNNMaskRCNN 方法将用于训练模型。 MaskRCNN 将用于对象检测。 可将此方法用于实例分割,即对影像中对象的精确划分。 此模型类型可用于检测建筑物覆盖区。 该类型将 MaskRCNN 元数据格式作为输入用于训练数据。 输入训练数据的类值必须从 1 开始。 只能使用支持 CUDA 的 GPU 来训练此模型类型。
  • YOLOV3YOLOv3 方法将用于训练模型。 YOLOv3 将用于对象检测。
  • DEEPLABDeepLabV3 方法将用于训练模型。 DeepLab 用于像素分类。
  • FASTERRCNNFasterRCNN 方法将用于训练模型。 FasterRCNN 将用于对象检测。
  • BDCN_EDGEDETECTOR双向级联网络 (BDCN) 架构将用于训练模型。 BDCN 边缘检测器用于像素分类。 此方法对于改进不同比例对象的边缘检测非常有用。
  • HED_EDGEDETECTOR整体嵌套边缘检测 (HED) 架构将用于训练模型。 HED 边缘检测器用于像素分类。 此方法对于边缘和对象边缘检测非常有用。
  • MULTITASK_ROADEXTRACTOR多任务道路提取器架构将用于训练模型。 多任务道路提取器可用于像素分类。 此方法对于从卫星影像提取道路网络非常有用。
  • CONNECTNETConnectNet 架构将用于训练模型。 ConnectNet 用于像素分类。 此方法对于从卫星影像提取道路网络非常有用。
  • PIX2PIXPix2Pix 方法将用于训练模型。 Pix2Pix 可用于影像之间的转换。 此方法将创建一个模型对象,该模型对象会将一种类型的影像生成为另一种类型影像。 该模型类型的输入训练数据使用“导出切片”元数据格式。
  • CYCLEGANCycleGAN 方法将用于训练模型。 CycleGAN 可用于影像之间的转换。 此方法将创建一个模型对象,该模型对象会将一种类型的影像生成为另一种类型影像。 这种方法的独特之处在于,要训练的影像不需要重叠。 该模型类型的输入训练数据使用 CycleGAN 元数据格式。
  • SUPERRESOLUTION超分辨率方法将用于训练模型。 超分辨率可用于影像之间的转换。 这种方法将创建一个模型对象,该模型对象可以提高分辨率并改善影像质量。 该模型类型的输入训练数据使用“导出切片”元数据格式。
  • CHANGEDETECTOR变化检测器方法将用于训练模型。 变化检测器用于像素分类。 这种方法将创建一个模型对象,该模型对象将使用两个时空影像来创建变化的分类栅格。 该模型类型的输入训练数据使用“分类切片”元数据格式。
  • IMAGECAPTIONER图像标题生成器方法将用于训练模型。 图像标题生成器可用于图像到文本的转换。 此方法将创建一个用于为图像生成文本标题的模型。
  • SIAMMASKSiam Mask 方法将用于训练模型。 Siam Mask 将用于在视频中进行对象检测。 该模型使用视频帧进行训练,并检测每一帧中对象的类别和边界框。 此模型类型的输入训练数据使用 MaskRCNN 元数据格式。
  • MMDETECTIONMMDetection 方法将用于训练模型。 MMDetection 将用于对象检测。 受支持的元数据格式包括 PASCAL 视觉对象类矩形和 KITTI 矩形。
  • MMSEGMENTATIONMMSegmentation 方法将用于训练模型。 MMDetection 用于像素分类。 受支持的元数据格式为分类切片。
  • DEEPSORT深度排序方法将用于训练模型。 深度排序将用于在视频中进行对象检测。 该模型使用视频帧进行训练,并检测每一帧中对象的类别和边界框。 该模型类型的输入训练数据使用 Imagenet 元数据格式。 Siam Mask 在追踪对象时非常有用,而深度排序在训练模型以追踪多个对象时非常有用。
  • PIX2PIXHDPix2PixHD 方法将用于训练模型。 Pix2PixHD 可用于影像之间的转换。 此方法将创建一个模型对象,该模型对象会将一种类型的影像生成为另一种类型影像。 该模型类型的输入训练数据使用“导出切片”元数据格式。
  • MAXDEEPLABMaX-DeepLab 方法将用于训练模型。 用于全景分割的 MaX-DeepLab。 此方法将创建一个模型对象,该模型对象会将生成影像和要素。 此模型类型的输入训练数据使用全景元数据格式。
  • DETREGDETReg 方法将用于训练模型。 DETReg 将用于对象检测。 该模型类型的输入训练数据使用 Pascal 可视化对象类。 此模型类型为 GPU 密集型;需要具有至少 16 GB 内存的专用 GPU 才能正常运行。
String
batch_size
(可选)

一次需要处理以便用于训练的训练样本数。

增加批处理大小可以提高工具性能;但是,随着批处理大小的增加,会占用更多内存。 如果发生内存不足错误,请使用较小的批处理大小。

Long
arguments
[arguments,...]
(可选)

函数参数在 Python 栅格函数类中定义。 您可以在此列出其他深度学习参数和用于试验和优化的参数,例如用于调整灵敏度的置信度阈值。 参数名称将通过读取 Python 模块进行填充。

当选择 SSD 作为 model_type 参数值时,arguments 参数将使用以下参数进行填充:

  • grids - 为进行处理将图像分割成的格网数。 将此参数设置为 4 意味着影像将被划分为 4 x 4 或 16 个格网像元。 如果未指定任何值,则将根据输入影像计算最佳格网值。
  • zooms - 每个格网像元将按比例进行扩大或缩小的缩放级别数。 将此参数设置为 1 意味着所有格网像元都将保持相同的大小或缩放级别。 缩放级别为 2 表示所有格网像元都将变成两倍大(放大 100%)。 提供缩放级别列表意味着将使用列表中的所有数字来缩放所有格网像元。 默认值为 1.0。
  • ratios - 用于锚点框的纵横比列表。 在对象检测中,锚点框表示要预测的对象的理想位置、形状和大小。 将此参数设置为 [1.0,1.0]、[1.0,0.5] 表示锚点框是正方形 (1:1) 或水平边大小为垂直边一半 (1:0.5) 的矩形。 默认值为 [1.0, 1.0]。
  • monitor - 指定在检查点和提前停止时要监控的指标。 可用指标包括 valid_lossaverage_precision。 默认为 valid_loss

当您将像素分类模型(例如 PSPNETUNETDEEPLAB)选为 model_type 参数值时,arguments 参数将使用以下参数进行填充:

  • USE_UNET - 在金字塔池化完成后,将使用 U-Net 解码器来恢复数据。 默认为 True。 此参数特定于 PSPNET 模型。
  • PYRAMID_SIZES - 要应用于不同子区域的卷积图层的数量和大小。 默认值为 [1,2,3,6]。 此参数特定于 PSPNET 模型。
  • MIXUP - 指定是否使用 mixup 增强和 mixup 损失。 默认为 False
  • CLASS_BALANCING - 指定是否平衡与每类像素的频率成反比的交叉熵损失。 默认为 False
  • FOCAL_LOSS - 指定是否使用焦点损失。 默认为 False
  • IGNORE_CLASSES - 包含模型不会在其上发生损失的类值列表。
  • monitor - 指定在检查点和提前停止时要监控的指标。 可用指标包括 valid_lossaccuracy。 默认为 valid_loss

当选择 RETINANET 作为 model_type 参数值时,arguments 参数将使用以下参数进行填充:

  • SCALES - 每个像元将按比例进行扩大或缩小的比例级数。 默认值为 [1, 0.8, 0.63]。
  • RATIOS - 锚点框的纵横比。 默认值为 [0,5,1,2]。
  • monitor - 指定在检查点和提前停止时要监控的指标。 可用指标包括 valid_lossaverage_precision。 默认为 valid_loss

当选择 MULTITASK_ROADEXTRACTORCONNECTNET 作为 model_type 参数值时,arguments 参数将使用以下参数进行填充:

  • gaussian_thresh - 将设置高斯阈值,该阈值用于设置所需的道路宽度。 有效范围是 0.0 至 1.0。 默认值为 0.76。
  • orient_bin_size - 设置方向角的图格大小。 默认值为 20。
  • orient_theta - 设置方向掩膜的宽度。 默认值为 8。
  • mtl_model - 设置将用于创建模型的架构类型。 对于神经架构,有效的选择是分别基于 Linknet 或基于 Hourglass 的 linknethourglass。 默认为 hourglass
  • monitor - 指定在检查点和提前停止时要监控的指标。 可用指标包括 valid_lossaccuracymioudice。 默认为 valid_loss

当选择 IMAGECAPTIONER 作为 model_type 参数值时,arguments 参数将使用以下参数进行填充:

  • decode_params - 一种用于控制图像标题生成器运行方式的字典。 默认值为 {'embed_size':100, 'hidden_size':100, 'attention_size':100, 'teacher_forcing':1, 'dropout':0.1, 'pretrained_emb':False}
  • chip_size - 设置用于训练模型的图像大小。 图像将被裁剪为指定的片大小。 如果图像大小小于片大小,则使用图像大小。 默认大小为 224 像素。
  • monitor - 指定在检查点和提前停止时要监控的指标。 可用指标包括 valid_lossaccuracycorpus_bleumulti_label_fbeta。 默认为 valid_loss
decode_params 参数由以下六个参数组成:
  • embed_size - 设置嵌入大小。 神经网络中的默认设置为 100 个图层。
  • hidden_size - 设置隐藏图层大小。 神经网络中的默认设置为 100 个图层。
  • attention_size - 设置中间注意力图层大小。 神经网络中的默认设置为 100 个图层。
  • teacher_forcing - 设置教师强制的概率。 教师强制是一种用于训练递归神经网络的策略。 该策略可在反向传播过程中将先前时间步长的模型输出用作输入而非先前的输出。 有效范围是 0.0 至 1.0。 默认值为 1。
  • dropout - 设置辍学概率。 有效范围是 0.0 至 1.0。 默认值为 0.1。
  • pretrained_emb - 设置预训练嵌入标记。 如果为 True,则它将使用快速文本嵌入。 如果为 False,则它将不使用预训练文本嵌入。 默认值为 False。

当选择 CHANGEDETECTOR 作为 model_type 参数值时,arguments 参数将使用以下参数进行填充:

  • attention_type - 指定模块类型。 模块选择为 PAM(金字塔注意事项模块)或 BAM(基本注意事项模块)。 默认为 PAM
  • monitor - 指定在检查点和提前停止时要监控的指标。 可用指标包括 valid_lossprecisionrecallf1。 默认为 valid_loss

当选择 MMDETECTION 作为 model_type 参数值时,arguments 参数将使用以下参数进行填充:

  • model - 用于训练模型的骨干模型。 可用选择包括: atsscarafecascade_rcnncascade_rpndcn, detectorsdouble_headsdynamic_rcnnempirical_attentionfcosfoveaboxfsafghmhrnet libra_rcnn nas_fcospafpnpisaregnetreppointsres2netsablvfnet。 默认为 cascade_rcnn
  • model_weight - 指定将使用的预训练模型权重。 默认为 false。 该值也可以是来自 MMDetection 资料档案库的包含模型权重的配置文件的路径。

当选择 MMSegmentation 作为 model_type 参数值时,arguments 参数将使用以下参数进行填充:

  • model - 用于训练模型的骨干模型。 可用选择包括 annapcnetccnetcgnetdanetdeeplabv3deeplabv3plusdmnetdnlnetemanetencnetfastscnnfcngcnethrnetmobilenet_v2mobilenet_v3nonlocal_netocrnetocrnet_basepointrendpsanetpspnetresnestsem_fpnunetupernet。 默认为 deeplabv3
  • model_weight - 指定将使用的预训练模型权重。 默认为 false。 该值也可以是来自 MMSegmentation 资料档案库的包含模型权重的配置文件的路径。

所有模型类型均支持 chip_size 参数,即训练样本中切片的片大小。 从 in_folder 参数中指定的文件夹中的 .emd 文件中提取影像片大小。

Value Table
learning_rate
(可选)

在整个训练过程中,现有信息将被新获取的信息覆盖的比率。 如果未指定任何值,则系统将在训练过程中从学习曲线中提取最佳学习率。

Double
backbone_model
(可选)

指定要用作训练新模型的架构的、预先配置的神经网络。 这种方法称为迁移学习。

  • DENSENET121预先配置的模型将是在 Imagenet 数据集上训练的密集网络,其中包含一百万个以上的影像,且深度为 121 个图层。 与使用求和来合并图层的 RESNET 不同,DenseNet 使用串联来合并图层。
  • DENSENET161预先配置的模型将是在 Imagenet 数据集上训练的密集网络,其中包含一百万个以上的影像,且深度为 161 个图层。 与使用求和来合并图层的 RESNET 不同,DenseNet 使用串联来合并图层。
  • DENSENET169预先配置的模型将是在 Imagenet 数据集上训练的密集网络,其中包含一百万个以上的影像,且深度为 169 个图层。 与使用求和来合并图层的 RESNET 不同,DenseNet 使用串联来合并图层。
  • DENSENET201预先配置的模型将是在 Imagenet 数据集上训练的密集网络,其中包含一百万个以上的影像,且深度为 201 个图层。 与使用求和来合并图层的 RESNET 不同,DenseNet 使用串联来合并图层。
  • MOBILENET_V2由于这种预先配置的模型所使用的内存较少,因此将在 Imagenet 数据库上进行训练,且深度为 54 个图层,适用于边设备计算。
  • RESNET18预先配置的模型将是在 Imagenet 数据集上训练的残差网络,其中包含一百万个以上的影像,且深度为 18 个图层。
  • RESNET34预先配置的模型将是在 Imagenet 数据集上训练的残差网络,其中包含一百万个以上的影像,且深度为 34 个图层。 这是默认设置。
  • RESNET50预先配置的模型将是在 Imagenet 数据集上训练的残差网络,其中包含一百万个以上的影像,且深度为 50 个图层。
  • RESNET101预先配置的模型将是在 Imagenet 数据集上训练的残差网络,其中包含一百万个以上的影像,且深度为 101 个图层。
  • RESNET152预先配置的模型将是在 Imagenet 数据集上训练的残差网络,其中包含一百万个以上的影像,且深度为 152 个图层。
  • VGG11预先配置的模型将是在 Imagenet 数据集上训练的卷积神经网络,其中包含一百万个以上的影像以将影像分类为 1000 个对象类别,且深度为 11 个图层。
  • VGG11_BN这种预先配置的模型将基于 VGG 网络,但具有批量归一化功能,这意味着网络中的每个图层都已归一化。 它在 Imagenet 数据集上进行了训练,具有 11 个图层。
  • VGG13预先配置的模型将是在 Imagenet 数据集上训练的卷积神经网络,其中包含一百万个以上的影像以将影像分类为 1000 个对象类别,且深度为 13 个图层。
  • VGG13_BN这种预先配置的模型将基于 VGG 网络,但具有批量归一化功能,这意味着网络中的每个图层都已归一化。 它在 Imagenet 数据集上进行了训练,具有 13 个图层。
  • VGG16预先配置的模型将是在 Imagenet 数据集上训练的卷积神经网络,其中包含一百万个以上的影像以将影像分类为 1000 个对象类别,且深度为 16 个图层。
  • VGG16_BN这种预先配置的模型将基于 VGG 网络,但具有批量归一化功能,这意味着网络中的每个图层都已归一化。 它在 Imagenet 数据集上进行了训练,具有 16 个图层。
  • VGG19预先配置的模型将是在 Imagenet 数据集上训练的卷积神经网络,其中包含一百万个以上的影像以将影像分类为 1000 个对象类别,且深度为 19 个图层。
  • VGG19_BN这种预先配置的模型将基于 VGG 网络,但具有批量归一化功能,这意味着网络中的每个图层都已归一化。 它在 Imagenet 数据集上进行了训练,具有 19 个图层。
  • DARKNET53预先配置的模型将是在 Imagenet 数据集上训练的卷积神经网络,其中包含一百万个以上的影像,且深度为 53 个图层。
  • REID_V1预先配置的模型将是在 Imagenet 数据集上训练的用于对象追踪的卷积神经网络。
  • REID_V2预先配置的模型将是在 Imagenet 数据集上训练的用于对象追踪的卷积神经网络。

此外,可以使用 timm: 作为前缀指定 PyTorch 图像模型 (timm) 中支持的卷积神经网络,例如 timm:resnet31timm:inception_v4timm:efficientnet_b3 等。

String
pretrained_model
(可选)

将用于微调新模型的预训练模型。 输入为 Esri 模型定义文件 (.emd) 或深度学习包文件 (.dlpk)。

可以对具有相似类的预训练模型进行微调以适应新模型。 预训练模型必须已使用将用于训练新模型的相同模型类型和骨干模型进行了训练。

File
validation_percentage
(可选)

将用于验证模型的训练样本的百分比。 默认值为 10。

Double
stop_training
(可选)

指定是否将实施提前停止。

  • STOP_TRAINING将实施提前停止,当模型不再改进时,无论所指定的 max_epochs 参数值是什么,模型训练都将停止。 这是默认设置。
  • CONTINUE_TRAINING不会实施提前停止,模型训练将一直持续,直至达到 max_epochs 参数值为止。
Boolean
freeze
(可选)

指定是否冻结预训练模型中的骨干层,以使权重和偏差保持原始设计。

  • FREEZE_MODEL将冻结骨干图层,预定义的权重和偏差不会在 backbone_model 参数中进行更改。 这是默认设置。
  • UNFREEZE_MODEL不会冻结骨干图层,backbone_model 参数的权重和偏差可能会进行更改以更好地适合您的训练样本。 这将需要花费更多的时间来处理,但通常会产生更好的结果。
Boolean

派生输出

名称说明数据类型
out_model_file

输出已训练模型文件。

File

代码示例

TrainDeepLearningModel 示例 1(Python 窗口)

本示例使用 U-Net 方法来训练树分类模型。

# Import system modules  
import arcpy  
from arcpy.ia import *  
 
# Check out the ArcGIS Image Analyst extension license 
arcpy.CheckOutExtension("ImageAnalyst") 
 
# Execute 
TrainDeepLearningModel(r"C:\DeepLearning\TrainingData\Roads_FC", 
     r"C:\DeepLearning\Models\Fire", 40, "UNET", 16, "# #", None, 
     "RESNET34", None, 10, "STOP_TRAINING", "FREEZE_MODEL")
TrainDeepLearningModel 示例 2(独立脚本)

本示例使用 SSD 方法来训练对象检测模型。

# Import system modules  
import arcpy  
from arcpy.ia import *  
 
# Check out the ArcGIS Image Analyst extension license 
arcpy.CheckOutExtension("ImageAnalyst") 
 
#Define input parameters
in_folder = "C:\\DeepLearning\\TrainingData\\Cars" 
out_folder = "C:\\Models\\Cars"
max_epochs = 100
model_type = "SSD"
batch_size = 2
arg = "grids '[4, 2, 1]';zooms '[0.7, 1.0, 1.3]';ratios '[[1, 1], [1, 0.5], [0.5, 1]]'"
learning_rate = 0.003
backbone_model = "RESNET34" 
pretrained_model = "C:\\Models\\Pretrained\\vehicles.emd"
validation_percent = 10
stop_training = "STOP_TRAINING"
freeze = "FREEZE_MODEL"


# Execute
TrainDeepLearningModel(in_folder, out_folder, max_epochs, model_type, 
     batch_size, arg, learning_rate, backbone_model, pretrained_model, 
     validation_percent, stop_training, freeze)

许可信息

  • Basic: 需要 Image Analyst
  • Standard: 需要 Image Analyst
  • Advanced: 需要 Image Analyst

相关主题