Аргументы модели (Дополнительный) | Аргументы функции определены в классе функции растра Python. Там перечисляются дополнительные параметры глубокого обучения и аргументы для экспериментов и улучшения, например, порог достоверности для настройки чувствительности. Названия аргументов заполняются при чтении модуля Python. Когда вы выбираете Single Shot Detector (Обнаружение объектов) в качестве значения параметра Тип модели, параметр Аргументы модели будет заполнен следующими аргументами: - grids — количество сеток, на которые будет разбито изображение для обработки. Установка для этого аргумента значения 4 означает, что изображение будет разделено на 4 x 4 или 16 ячеек сетки. Если значение не задано, оптимальное значение сетки будет рассчитано на основе входных изображений.
- zooms — количество уровней масштабирования, на которое каждая ячейка сетки будет увеличена или уменьшена. Установка для этого аргумента значения 1 означает, что все ячейки сетки останутся в том же размере или уровне масштабирования. Уровень масштабирования 2 означает, что все ячейки сетки станут в два раза больше (увеличены на 100 процентов). Предоставление списка уровней масштабирования означает, что все ячейки сетки будут масштабироваться с использованием всех значений в списке. По умолчанию 1.0.
- ratios — список отношений сторон, используемых для рамок привязки. При обнаружении объекта рамка привязки представляет идеальное местоположение, форму и размер прогнозируемого объекта. Установка для этого аргумента значения [1.0,1.0], [1.0, 0.5] означает, что рамка привязки представляет собой квадрат (1:1) или прямоугольник, в котором горизонтальная сторона вдвое меньше вертикальной стороны (1:0.5). По умолчанию [1.0, 1.0].
- monitor — указывает, какую метрику следует отслеживать во время проверки и ранней остановки. Доступные метрики: valid_loss и medium_precision. По умолчанию valid_loss.
Когда вы выбираете модель классификации пикселов, такую как Pyramid Scene Parsing Network (классификация пикселов), U-Net (классификация пикселов) или DeepLabv3 (классификация пикселов) в качестве значения параметра Тип модели, параметр Аргументы модели будет заполнен следующими аргументами: - use_net — указывает, будет ли использоваться декодер U-Net для восстановления данных после завершения формирования пула пирамидных слоев. Значением по умолчанию является True. Этот аргумент специфичен для модели сети Pyramid Scene Parsing Network.
- pyramid_sizes — количество и размер слоев свертки, которые должны применяться к различным субрегионам. По умолчанию [1,2,3,6]. Этот аргумент специфичен для модели сети Pyramid Scene Parsing Network.
- mixup — определяет, будут ли использоваться приращение микширования и потеря микширования. По умолчанию False.
- class_balancing — указывает, будет ли обратная кросс-энтропийная потеря сбалансирована с частотой пикселов на класс. По умолчанию False.
- focal_loss — указывает, будут ли использоваться фокальные потери. По умолчанию False.
- ignore_classes — содержит список значений класса, при которых модель не понесет потерь.
- monitor — указывает, какую метрику следует отслеживать во время проверки и ранней остановки. Доступные метрики: valid_loss и accuracy. По умолчанию valid_loss.
Когда вы выбираете RetinaNet (Обнаружение объектов) в качестве значения параметра Тип модели, параметр Аргументы модели будет заполнен следующими аргументами: - scales — количество уровней масштабирования, на которые каждая ячейка будет увеличена или уменьшена. По умолчанию [1, 0.8, 0.63].
- ratios — соотношение сторон рамки привязки. По умолчанию 0.5,1,2.
- monitor — указывает, какую метрику следует отслеживать во время проверки и ранней остановки. Доступные метрики: valid_loss и medium_precision. По умолчанию valid_loss.
Когда вы выбираете Multi Task Road Extractor (Классификация пикселов) или ConnectNet (Классификация пикселов) в качестве значения параметра Тип модели, параметр Аргументы модели будет заполнен следующими аргументами: - gaussian_thresh — устанавливает порог Гаусса, который задает требуемую ширину дороги. Допустимый диапазон от 0.0 до 1.0. По умолчанию 0.76.
- orient_bin_size — задает размер ячейки для углов ориентации. Значение по умолчанию равно 20.
- orient_theta — устанавливает ширину маски ориентации. Значение по умолчанию - 8.
- mtl_model — задает тип архитектуры, который будет использоваться для создания модели. Допустимые варианты: linknet или hourglass для нейронных архитектур, основанных на linknet или hourglass, соответственно. По умолчанию hourglass.
- monitor — указывает, какую метрику следует отслеживать во время проверки и ранней остановки. Доступные метрики: valid_loss, accuracy, miou и dice. По умолчанию valid_loss.
Когда вы выбираете Image captioner (Преобразование изображения) в качестве значения параметра Тип модели, параметр Аргументы модели будет заполнен следующими аргументами: - decode_params — словарь, который определяет, как будет работать Image captioner. Значение по умолчанию равно {'embed_size':100, 'hidden_size':100, 'attention_size':100, 'teacher_forcing':1, 'dropout':0.1, 'pretrained_emb':False}.
- chip_size — устанавливает размер изображения для обучения модели. Изображения обрезаются до указанного размера кусочка. Если размер изображения меньше размера кусочка, используется размер изображения. Размер по умолчанию 224 пиксела.
- monitor — указывает, какую метрику следует отслеживать во время проверки и ранней остановки. Доступные метрики: valid_loss, accuracy, corpus_bleu и multi_label_fbeta. По умолчанию valid_loss.
Аргумент decode_params состоит из следующих шести параметров.- embed_size — задает встраиваемый размер. По умолчанию в нейронной сети 100 слоев.
- hidden_size — задает размер скрытого слоя. По умолчанию в нейронной сети 100 слоев.
- attention_size — задает размер промежуточного слоя внимания. По умолчанию в нейронной сети 100 слоев.
- teacher_forcing — задает вероятность использования стратегии teacher forcing. Teacher forcing — это стратегия обучения рекуррентных нейронных сетей. Она использует выходные данные модели из предыдущего временного шага в качестве входных данных вместо предыдущих выходных данных во время обратной передачи ошибки обучения. Допустимый диапазон от 0.0 до 1.0. Значение по умолчанию равно 1.
- dropout — задает вероятность отсева. Допустимый диапазон от 0.0 до 1.0. Значение по умолчанию равно 0,1.
- pretrained_emb — устанавливает отметку предварительно обученного встраивания. Если True, будет использоваться быстрое встраивание текста. Если False, предварительно обученное встраивание текста не будет использоваться. По умолчанию – False.
Когда вы выбираете Change detector (Классификация пикселов) в качестве значения параметра Тип модели, параметр Аргументы модели будет заполнен следующим аргументом: - attention_type — определяет тип модуля. Выбор модуля PAM (Pyramid Attention Module) или BAM (Basic Attention Module). По умолчанию PAM.
- monitor — указывает, какую метрику следует отслеживать во время проверки и ранней остановки. Доступные метрики valid_loss, precision, recall и f1. По умолчанию valid_loss.
Когда вы выбираете MMDetection (Обнаружение объектов) в качестве значения параметра Тип модели, параметр Аргументы модели будет заполнен следующими аргументами: - model — опорная модель, используемая для обучения модели. Вы можете использовать atss, carafe, cascade_rcnn, cascade_rpn, dcn, detectors, double_heads, dynamic_rcnn, empirical_attention, fcos, foveabox, fsaf, ghm, hrnet, libra_rcnn, nas_fcos, pafpn, pisa, regnet, reppoints, res2net, sabl или vfnet как опорная модель. По умолчанию cascade_rcnn.
- model_weight — определяет, использовать ли веса предварительно обученной модели. Значением по умолчанию является false. Значение также может быть путем к файлу конфигурации, содержащему веса модели, из репозитория MMDetection.
При выборе MMSegmentation (классификация пикселов) в качестве значения параметра Тип модели параметр Аргументы модели будет заполнен следующими аргументами: - model — опорная модель, используемая для обучения модели. Вы можете использовать ann, apcnet, ccnet, cgnet, danet, deeplabv3, deeplabv3plus, dmnet , dnlnet, emanet, encnet, fastscnn, fcn, gcnet, hrnet, mobilenet_v2, mobilenet_v3, nonlocal_net, ocrnet, ocrnet_base, pointrend, psanet, pspnet, resnest, sem_fpn, unet или upernet как опорная модель. По умолчанию deeplabv3.
- model_weight — определяет, использовать ли веса предварительно обученной модели. Значением по умолчанию является false. Значение также может быть путем к файлу конфигурации, содержащему веса модели, из репозитория MMSegmentation.
Все типы моделей поддерживают аргумент chip_size, который представляет собой размер кусочка изображения обучающих выборок. Размер кусочка изображения извлекается из файла .emd из папки, указанной в параметре Входные обучающие данные. | Value Table |
Опорная модель (Дополнительный) | Указывает предварительно настроенную нейронную сеть, которая будет использоваться в качестве архитектуры для обучения новой модели. Этот метод известен как Трансферное обучение. Кроме того, поддерживаемые сверхточные нейронные сети из моделей изображений PyTorch (timm) можно указать с помощью timm: в качестве префикса, например, timm:resnet31, timm:inception_v4, timm:efficientnet_b3, и т.д. - DenseNet-121—Предварительно настроенная модель будет плотной сетью, обученной на наборе данных Imagenet, который содержит более 1 миллиона изображений и имеет глубину 121 слой. В отличие от RESNET, который объединяет слои с помощью суммирования, DenseNet объединяет слои с помощью конкатенации.
- DenseNet-161—Предварительно настроенная модель будет плотной сетью, обученной на наборе данных Imagenet, который содержит более 1 миллиона изображений и имеет глубину 161 слой. В отличие от RESNET, который объединяет слои с помощью суммирования, DenseNet объединяет слои с помощью конкатенации.
- DenseNet-169—Предварительно настроенная модель будет плотной сетью, обученной на наборе данных Imagenet, который содержит более 1 миллиона изображений и имеет глубину 169 слоев. В отличие от RESNET, который объединяет слои с помощью суммирования, DenseNet объединяет слои с помощью конкатенации.
- DenseNet-201—Предварительно настроенная модель будет плотной сетью, обученной на наборе данных Imagenet, который содержит более 1 миллиона изображений и имеет глубину 201 слой. В отличие от RESNET, который объединяет слои с помощью суммирования, DenseNet объединяет слои с помощью конкатенации.
- MobileNet версия 2—Эта предварительно настроенная модель будет обучаться на базе данных Imagenet и имеет 54 слоя, ориентированных на вычисления на устройствах Edge, поскольку она использует меньше памяти.
- ResNet-18—Предварительно настроенная модель будет представлять собой остаточную сеть, обученную на наборе данных Imagenet, содержащем более миллиона изображений и имеющем 18 слоев в глубину.
- ResNet-34—Предварительно настроенная модель будет представлять собой остаточную сеть, обученную на наборе данных Imagenet, содержащем более 1 миллиона изображений и имеющем 34 слоя в глубину. Это значение по умолчанию
- ResNet-50—Предварительно настроенная модель будет представлять собой остаточную сеть, обученную на наборе данных Imagenet, содержащем более 1 миллиона изображений и имеющем 50 слоев в глубину.
- ResNet-101—Предварительно настроенная модель будет представлять собой остаточную сеть, обученную на наборе данных Imagenet, содержащем более 1 миллиона изображений и имеющем 101 слой в глубину.
- ResNet-152—Предварительно настроенная модель будет представлять собой остаточную сеть, обученную на наборе данных Imagenet, содержащем более 1 миллиона изображений и имеющем 152 слоя в глубину.
- VGG-11—Предварительно сконфигурированная модель будет сверточной нейронной сетью, обученной на наборе данных Imagenet, который содержит более 1 миллиона изображений для классификации изображений на 1000 категорий объектов и имеет 11 слоев в глубину.
- VGG-11 с пакетной нормализацией—Эта предварительно сконфигурированная модель будет основана на сети VGG, но с пакетной нормализацией, что означает нормализацию каждого слоя в сети. Она обучалась на наборе данных Imagenet и имеет 11 слоев.
- VGG-13—Предварительно сконфигурированная модель будет сверточной нейронной сетью, обученной на наборе данных Imagenet, который содержит более 1 миллиона изображений для классификации изображений на 1000 категорий объектов и имеет 13 слоев в глубину.
- VGG-13 с пакетной нормализацией—Эта предварительно сконфигурированная модель будет основана на сети VGG, но с пакетной нормализацией, что означает нормализацию каждого слоя в сети. Она обучалась на наборе данных Imagenet и имеет 13 слоев.
- VGG-16—Предварительно сконфигурированная модель будет сверточной нейронной сетью, обученной на наборе данных Imagenet, который содержит более 1 миллиона изображений для классификации изображений на 1000 категорий объектов и имеет 16 слоев в глубину.
- VGG-16 с пакетной нормализацией—Эта предварительно сконфигурированная модель будет основана на сети VGG, но с пакетной нормализацией, что означает нормализацию каждого слоя в сети. Она обучалась на наборе данных Imagenet и имеет 16 слоев.
- VGG-19—Предварительно сконфигурированная модель будет сверточной нейронной сетью, обученной на наборе данных Imagenet, который содержит более 1 миллиона изображений для классификации изображений на 1000 категорий объектов и имеет 19 слоев в глубину.
- VGG-19 с пакетной нормализацией—Эта предварительно сконфигурированная модель будет основана на сети VGG, но с пакетной нормализацией, что означает нормализацию каждого слоя в сети. Она обучалась на наборе данных Imagenet и имеет 19 слоев.
- DarkNet-53—Предварительно настроенная модель будет представлять собой сверточную нейронную сеть, обученную на наборе данных Imagenet, который содержит более 1 миллиона изображений и имеет 53 слоя в глубину.
- Reid_v1—Предварительно настроенная модель будет сверточной нейронной сетью, обученной на наборе данных Imagenet, который используется для отслеживания объектов.
- Reid_v2—Предварительно настроенная модель будет сверточной нейронной сетью, обученной на наборе данных Imagenet, который используется для отслеживания объектов.
| String |