| Аргументы модели (Дополнительный) | Аргументы функции определены в классе функции растра Python. Там перечисляются дополнительные параметры глубокого обучения и аргументы для экспериментов и улучшения, например, порог достоверности для настройки чувствительности. Названия аргументов заполняются при чтении модуля Python. Когда вы выбираете Single Shot Detector (Обнаружение объектов) в качестве значения параметра Тип модели, параметр Аргументы модели будет заполнен следующими аргументами: grids — количество сеток, на которые будет разбито изображение для обработки. Установка для этого аргумента значения 4 означает, что изображение будет разделено на 4 x 4 или 16 ячеек сетки. Если значение не задано, оптимальное значение сетки будет рассчитано на основе входных изображений.zooms — количество уровней масштабирования, на которое каждая ячейка сетки будет увеличена или уменьшена. Установка для этого аргумента значения 1 означает, что все ячейки сетки останутся в том же размере или уровне масштабирования. Уровень масштабирования 2 означает, что все ячейки сетки станут в два раза больше (увеличены на 100 процентов). Предоставление списка уровней масштабирования означает, что все ячейки сетки будут масштабироваться с использованием всех значений в списке. По умолчанию 1.0.ratios — список отношений сторон, используемых для рамок привязки. При обнаружении объекта рамка привязки представляет идеальное местоположение, форму и размер прогнозируемого объекта. Установка для этого аргумента значения [1.0,1.0], [1.0, 0.5] означает, что рамка привязки представляет собой квадрат (1:1) или прямоугольник, в котором горизонтальная сторона вдвое меньше вертикальной стороны (1:0.5). По умолчанию [1.0, 1.0].monitor — указывает, какую метрику следует отслеживать во время проверки и ранней остановки. Доступные метрики: valid_loss и medium_precision. По умолчанию valid_loss.
 Когда вы выбираете модель классификации пикселов, такую как Pyramid Scene Parsing Network (классификация пикселов), U-Net (классификация пикселов) или DeepLabv3 (классификация пикселов) в качестве значения параметра Тип модели, параметр Аргументы модели будет заполнен следующими аргументами: use_net — указывает, будет ли использоваться декодер U-Net для восстановления данных после завершения формирования пула пирамидных слоев. Значением по умолчанию является True. Этот аргумент специфичен для модели сети Pyramid Scene Parsing Network.pyramid_sizes — количество и размер слоев свертки, которые должны применяться к различным субрегионам. По умолчанию [1,2,3,6]. Этот аргумент специфичен для модели сети Pyramid Scene Parsing Network.mixup — определяет, будут ли использоваться приращение микширования и потеря микширования. По умолчанию False.class_balancing — указывает, будет ли обратная кросс-энтропийная потеря сбалансирована с частотой пикселов на класс. По умолчанию False.focal_loss — указывает, будут ли использоваться фокальные потери. По умолчанию False.ignore_classes — содержит список значений класса, при которых модель не понесет потерь.monitor — указывает, какую метрику следует отслеживать во время проверки и ранней остановки. Доступные метрики: valid_loss и accuracy. По умолчанию valid_loss.
 Когда вы выбираете RetinaNet (Обнаружение объектов) в качестве значения параметра Тип модели, параметр Аргументы модели будет заполнен следующими аргументами: scales — количество уровней масштабирования, на которые каждая ячейка будет увеличена или уменьшена. По умолчанию [1, 0.8, 0.63].ratios — соотношение сторон рамки привязки. По умолчанию 0.5,1,2.monitor — указывает, какую метрику следует отслеживать во время проверки и ранней остановки. Доступные метрики: valid_loss и medium_precision. По умолчанию valid_loss.
 Когда вы выбираете Multi Task Road Extractor (Классификация пикселов) или ConnectNet (Классификация пикселов) в качестве значения параметра Тип модели, параметр Аргументы модели будет заполнен следующими аргументами: gaussian_thresh — устанавливает порог Гаусса, который задает требуемую ширину дороги. Допустимый диапазон от 0.0 до 1.0. По умолчанию 0.76.orient_bin_size — задает размер ячейки для углов ориентации. Значение по умолчанию равно 20.orient_theta — устанавливает ширину маски ориентации. Значение по умолчанию - 8.mtl_model — задает тип архитектуры, который будет использоваться для создания модели. Допустимые варианты: linknet или hourglass для нейронных архитектур, основанных на linknet или hourglass, соответственно. По умолчанию hourglass.monitor — указывает, какую метрику следует отслеживать во время проверки и ранней остановки. Доступные метрики: valid_loss, accuracy, miou и dice. По умолчанию valid_loss.
 Когда вы выбираете Image captioner (Преобразование изображения) в качестве значения параметра Тип модели, параметр Аргументы модели будет заполнен следующими аргументами: Аргумент decode_params состоит из следующих шести параметров.decode_params — словарь, который определяет, как будет работать Image captioner. Значение по умолчанию равно {'embed_size':100, 'hidden_size':100, 'attention_size':100, 'teacher_forcing':1, 'dropout':0.1, 'pretrained_emb':False}.chip_size — устанавливает размер изображения для обучения модели. Изображения обрезаются до указанного размера кусочка. Если размер изображения меньше размера кусочка, используется размер изображения. Размер по умолчанию 224 пиксела.monitor — указывает, какую метрику следует отслеживать во время проверки и ранней остановки. Доступные метрики: valid_loss, accuracy, corpus_bleu и multi_label_fbeta. По умолчанию valid_loss.
 embed_size — задает встраиваемый размер. По умолчанию в нейронной сети 100 слоев.hidden_size — задает размер скрытого слоя. По умолчанию в нейронной сети 100 слоев.attention_size — задает размер промежуточного слоя внимания. По умолчанию в нейронной сети 100 слоев.teacher_forcing — задает вероятность использования стратегии teacher forcing. Teacher forcing — это стратегия обучения рекуррентных нейронных сетей. Она использует выходные данные модели из предыдущего временного шага в качестве входных данных вместо предыдущих выходных данных во время обратной передачи ошибки обучения. Допустимый диапазон от 0.0 до 1.0. Значение по умолчанию равно 1.dropout — задает вероятность отсева. Допустимый диапазон от 0.0 до 1.0. Значение по умолчанию равно 0,1.pretrained_emb — устанавливает отметку предварительно обученного встраивания. Если True, будет использоваться быстрое встраивание текста. Если False, предварительно обученное встраивание текста не будет использоваться. По умолчанию – False.
 Когда вы выбираете Change detector (Классификация пикселов) в качестве значения параметра Тип модели, параметр Аргументы модели будет заполнен следующим аргументом: attention_type — определяет тип модуля. Выбор модуля PAM (Pyramid Attention Module) или BAM (Basic Attention Module). По умолчанию PAM.monitor — указывает, какую метрику следует отслеживать во время проверки и ранней остановки. Доступные метрики valid_loss, precision, recall и f1. По умолчанию valid_loss.
 Когда вы выбираете MMDetection (Обнаружение объектов) в качестве значения параметра Тип модели, параметр Аргументы модели будет заполнен следующими аргументами: model — опорная модель, используемая для обучения модели. Вы можете использовать atss, carafe, cascade_rcnn, cascade_rpn, dcn, detectors, double_heads, dynamic_rcnn, empirical_attention, fcos, foveabox, fsaf, ghm, hrnet, libra_rcnn, nas_fcos, pafpn, pisa, regnet, reppoints, res2net, sabl или vfnet как опорная модель. По умолчанию cascade_rcnn.model_weight — определяет, использовать ли веса предварительно обученной модели. Значением по умолчанию является false. Значение также может быть путем к файлу конфигурации, содержащему веса модели, из репозитория MMDetection.
 При выборе MMSegmentation (классификация пикселов) в качестве значения параметра Тип модели параметр Аргументы модели будет заполнен следующими аргументами: model — опорная модель, используемая для обучения модели. Вы можете использовать ann, apcnet, ccnet, cgnet, danet, deeplabv3, deeplabv3plus, dmnet , dnlnet, emanet, encnet, fastscnn, fcn, gcnet, hrnet, mobilenet_v2, mobilenet_v3, nonlocal_net, ocrnet, ocrnet_base, pointrend, psanet, pspnet, resnest, sem_fpn, unet или upernet как опорная модель. По умолчанию deeplabv3.model_weight — определяет, использовать ли веса предварительно обученной модели. Значением по умолчанию является false. Значение также может быть путем к файлу конфигурации, содержащему веса модели, из репозитория MMSegmentation.
 Все типы моделей поддерживают аргумент chip_size, который представляет собой размер кусочка изображения обучающих выборок. Размер кусочка изображения извлекается из файла .emd из папки, указанной в параметре Входные обучающие данные. | Value Table | 
| Опорная модель (Дополнительный) | Указывает предварительно настроенную нейронную сеть, которая будет использоваться в качестве архитектуры для обучения новой модели. Этот метод известен как Трансферное обучение. Кроме того, поддерживаемые сверхточные нейронные сети из моделей изображений PyTorch (timm) можно указать с помощью timm: в качестве префикса, например, timm:resnet31, timm:inception_v4, timm:efficientnet_b3, и т.д. DenseNet-121—Предварительно настроенная модель будет плотной сетью, обученной на наборе данных Imagenet, который содержит более 1 миллиона изображений и имеет глубину 121 слой. В отличие от RESNET, который объединяет слои с помощью суммирования, DenseNet объединяет слои с помощью конкатенации.DenseNet-161—Предварительно настроенная модель будет плотной сетью, обученной на наборе данных Imagenet, который содержит более 1 миллиона изображений и имеет глубину 161 слой. В отличие от RESNET, который объединяет слои с помощью суммирования, DenseNet объединяет слои с помощью конкатенации.DenseNet-169—Предварительно настроенная модель будет плотной сетью, обученной на наборе данных Imagenet, который содержит более 1 миллиона изображений и имеет глубину 169 слоев. В отличие от RESNET, который объединяет слои с помощью суммирования, DenseNet объединяет слои с помощью конкатенации.DenseNet-201—Предварительно настроенная модель будет плотной сетью, обученной на наборе данных Imagenet, который содержит более 1 миллиона изображений и имеет глубину 201 слой. В отличие от RESNET, который объединяет слои с помощью суммирования, DenseNet объединяет слои с помощью конкатенации.MobileNet версия 2—Эта предварительно настроенная модель будет обучаться на базе данных Imagenet и имеет 54 слоя, ориентированных на вычисления на устройствах Edge, поскольку она использует меньше памяти.ResNet-18—Предварительно настроенная модель будет представлять собой остаточную сеть, обученную на наборе данных Imagenet, содержащем более миллиона изображений и имеющем 18 слоев в глубину.ResNet-34—Предварительно настроенная модель будет представлять собой остаточную сеть, обученную на наборе данных Imagenet, содержащем более 1 миллиона изображений и имеющем 34 слоя в глубину. Это значение по умолчаниюResNet-50—Предварительно настроенная модель будет представлять собой остаточную сеть, обученную на наборе данных Imagenet, содержащем более 1 миллиона изображений и имеющем 50 слоев в глубину.ResNet-101—Предварительно настроенная модель будет представлять собой остаточную сеть, обученную на наборе данных Imagenet, содержащем более 1 миллиона изображений и имеющем 101 слой в глубину.ResNet-152—Предварительно настроенная модель будет представлять собой остаточную сеть, обученную на наборе данных Imagenet, содержащем более 1 миллиона изображений и имеющем 152 слоя в глубину.VGG-11—Предварительно сконфигурированная модель будет сверточной нейронной сетью, обученной на наборе данных Imagenet, который содержит более 1 миллиона изображений для классификации изображений на 1000 категорий объектов и имеет 11 слоев в глубину.VGG-11 с пакетной нормализацией—Эта предварительно сконфигурированная модель будет основана на сети VGG, но с пакетной нормализацией, что означает нормализацию каждого слоя в сети. Она обучалась на наборе данных Imagenet и имеет 11 слоев.VGG-13—Предварительно сконфигурированная модель будет сверточной нейронной сетью, обученной на наборе данных Imagenet, который содержит более 1 миллиона изображений для классификации изображений на 1000 категорий объектов и имеет 13 слоев в глубину.VGG-13 с пакетной нормализацией—Эта предварительно сконфигурированная модель будет основана на сети VGG, но с пакетной нормализацией, что означает нормализацию каждого слоя в сети. Она обучалась на наборе данных Imagenet и имеет 13 слоев.VGG-16—Предварительно сконфигурированная модель будет сверточной нейронной сетью, обученной на наборе данных Imagenet, который содержит более 1 миллиона изображений для классификации изображений на 1000 категорий объектов и имеет 16 слоев в глубину.VGG-16 с пакетной нормализацией—Эта предварительно сконфигурированная модель будет основана на сети VGG, но с пакетной нормализацией, что означает нормализацию каждого слоя в сети. Она обучалась на наборе данных Imagenet и имеет 16 слоев.VGG-19—Предварительно сконфигурированная модель будет сверточной нейронной сетью, обученной на наборе данных Imagenet, который содержит более 1 миллиона изображений для классификации изображений на 1000 категорий объектов и имеет 19 слоев в глубину.VGG-19 с пакетной нормализацией—Эта предварительно сконфигурированная модель будет основана на сети VGG, но с пакетной нормализацией, что означает нормализацию каждого слоя в сети. Она обучалась на наборе данных Imagenet и имеет 19 слоев.DarkNet-53—Предварительно настроенная модель будет представлять собой сверточную нейронную сеть, обученную на наборе данных Imagenet, который содержит более 1 миллиона изображений и имеет 53 слоя в глубину.Reid_v1—Предварительно настроенная модель будет сверточной нейронной сетью, обученной на наборе данных Imagenet, который используется для отслеживания объектов.Reid_v2—Предварительно настроенная модель будет сверточной нейронной сетью, обученной на наборе данных Imagenet, который используется для отслеживания объектов.
 | String |