ラベル | 説明 | データ タイプ |
入力ラスター | オブジェクトの検出に使用される入力画像。 この入力には、モザイク データセット、イメージ サービス、または画像のフォルダー内の単一のラスターまたは複数のラスターを指定することができます。 画像のアタッチメントを含むフィーチャクラスもサポートされます。 | Raster Dataset; Raster Layer; Mosaic Layer; Image Service; Map Server; Map Server Layer; Internet Tiled Layer; Folder; Feature Layer; Feature Class |
出力分類済みオブジェクト フィーチャクラス | 入力フィーチャクラスのオブジェクトまたはフィーチャを囲むジオメトリと、分類ラベルを格納するフィールドを含む出力フィーチャクラス。 | Feature Class |
モデル定義 | [Esri モデル定義] パラメーター値には、Esri モデル定義 JSON ファイル (*.emd)、JSON 文字列、またはディープ ラーニング モデル パッケージ (*.dlpk) を指定することができます。 JSON 文字列は、このツールがサーバーで使用されている場合に便利で、*.emd ファイルをアップロードする代わりに JSON 文字列を貼り付けることができます。 *.dlpk ファイルはローカルに格納する必要があります。 これには、ディープ ラーニング バイナリ モデル ファイルへのパス、使用される Python ラスター関数へのパス、および他のパラメーター (望ましいタイル サイズやゼロ詰めなど) が含まれます。 | File; String |
入力フィーチャ (オプション) | 分類されラベル付けされる各オブジェクトまたはフィーチャの位置を識別するポイント、ライン、またはポリゴン入力フィーチャクラス。 入力フィーチャクラスの各行は、単一のオブジェクトまたはフィーチャを表します。 入力フィーチャクラスが指定されない場合、このツールは、各入力画像に分類対象の単一オブジェクトが含まれていると判断します。 入力画像が空間参照を使用する場合、このツールからの出力はフィーチャクラスとなり、各画像の範囲が各ラベル付きフィーチャクラスの境界ジオメトリとして使用されます。 入力画像が空間参照されていない場合、このツールからの出力は、各画像の画像 ID 値とクラス ラベルを含むテーブルとなります。 | Feature Class; Feature Layer |
クラス ラベル フィールド (オプション) | 出力フィーチャクラス内のクラスまたはカテゴリ ラベルを含むフィールドの名前。 フィールド名を指定しないと、出力フィーチャクラスに ClassLabel という新しいフィールドが生成されます。 | String |
処理モード (オプション) | モザイク データセットまたはイメージ サービス内のすべてのラスター アイテムを処理する方法を指定します。 入力ラスターがモザイク データセットまたはイメージ サービスである場合、このパラメーターが適用されます。
| String |
モデル引数 (オプション) | Python ラスター関数クラスに定義される関数の引数。 ここでは、実験や調整のための追加のディープ ラーニング パラメーターおよび引数 (感度を調整するための信頼性の閾値など) がリストされます。 引数の名前は、Python モジュールから入力されます。 | Value Table |
Image Analyst ライセンスで利用できます。
サマリー
入力ラスターとオプションのフィーチャクラスに対してトレーニング済みディープ ラーニング モデルを実行し、各入力オブジェクトまたはフィーチャにクラス ラベルまたはカテゴリ ラベルを割り当てたフィーチャクラスまたはテーブルを作成します。
このツールは、トレーニング済みのモデル情報を含んでいるモデル定義ファイルを必要とします。 モデルは、[ディープ ラーニング モデルのトレーニング (Train Deep Learning Model)] ツールを使用するか、TensorFlow、PyTorch、または Keras などのサードパーティのトレーニング ソフトウェアによって、トレーニングできます。 モデル定義ファイルには、Esri モデル定義 JSON ファイル (*.emd) またはディープ ラーニング モデル パッケージを使用できます。モデル定義ファイルは、各オブジェクトを処理するために呼び出される Python ラスター関数のパス、およびトレーニング済みのバイナリ ディープ ラーニング モデル ファイルのパスを含む必要があります。
使用法
ArcGIS Pro Python 環境に適切なディープ ラーニング フレームワークの Python API (PyTorch または Keras) をインストールする必要があります。インストールしない場合、Esri モデル定義ファイルをツールに追加するとエラーが発生します。 Esri モデル定義ファイルを作成したユーザーが、適切なフレームワーク情報を提供する必要があります。
ArcGIS Pro のディープ ラーニング フレームワークを使用するようにコンピューターを設定するには、「ArcGIS 用のディープ ラーニング フレームワークのインストール」をご参照ください。
このツールは、サードパーティのディープ ラーニング Python API (PyTorch や Keras など) を呼び出し、指定された Python ラスター関数を使用して、各オブジェクトを処理します。
Esri Python ラスター関数の GitHub ページ に、このツールの使用例が記載されています。 また、次の例と手順に従って、カスタム Python モジュールを記述することもできます。
[Esri モデル定義] パラメーター値には、Esri モデル定義 JSON ファイル (*.emd)、JSON 文字列、またはディープ ラーニング モデル パッケージ (*.dlpk) を指定することができます。 JSON 文字列は、このツールがサーバーで使用されている場合に便利で、*.emd ファイルをアップロードする代わりに JSON 文字列を貼り付けることができます。 *.dlpk ファイルはローカルに格納する必要があります。
*.emd ファイルについては、次のサンプルをご参照ください。
{ "Framework": "Keras", "ModelConfiguration":"KerasClassifier", "ModelFile":"C:\\DeepLearning\\Damage_Classification_Model_V7.h5", "ModelType":"ObjectClassification", "ImageHeight":256, "ImageWidth":256, "ExtractBands":[0,1,2], "CropSizeFixed": 1, "BlackenAroundFeature": 1, "ImageSpaceUsed": "MAP_SPACE", "Classes": [ { "Value": 0, "Name": "Damaged", "Color": [255, 0, 0] }, { "Value": 1, "Name": "Undamaged", "Color": [76, 230, 0] } ] }
CropSizeFixed プロパティは、各オブジェクト周辺のラスター タイルのトリミング モードを定義します。 値が 1 の場合、*.emd ファイル内の ImageHeight と ImageWidth プロパティで定義される固定のラスター タイルが使用されることを意味します。 オブジェクトは、固定のタイル サイズ内の中心に配置されます。 値が 0 の場合は可変タイル サイズが使用され、ラスター タイルはオブジェクトを囲む最小の境界四角形でトリミングされます。
BlackenAroundFeature プロパティは、各オブジェクト外のピクセルをマスクするかどうかを指定します。 値が 0 の場合、オブジェクト外のピクセルはマスクされません。 値が 1 の場合、オブジェクト外のピクセルはマスクされます。
このツールは、マップ空間内またはピクセル空間内の入力画像を処理できます。 マップ空間内の画像は、マップベースの座標系です。 ピクセル空間内の画像は、未処理の画像空間内で、回転も変形もされません。 [ディープ ラーニング用のトレーニング データをエクスポート (Export Training Data For Deep Learning)] ツールでトレーニング データを生成するときに、[参照系] パラメーターを使用して参照系を指定できます。 モデルがサードパーティのトレーニング ソフトウェアでトレーニングされている場合、MAP_SPACE または PIXEL_SPACE に設定できる ImageSpaceUsed パラメーターを使用して、*.emd ファイルで参照系を指定する必要があります。
入力ラスターには、画像が添付された単一のラスター、複数のラスター、またはフィーチャクラスを使用できます。 添付ファイルの詳細については、「アタッチメントの追加または削除」をご参照ください。
このツールの実行要件および発生する可能性のある問題の詳細については、「ディープ ラーニングに関するよくある質問」をご参照ください。
ディープ ラーニングの詳細については、「ArcGIS Pro のディープ ラーニング」をご参照ください。
パラメーター
ClassifyObjectsUsingDeepLearning(in_raster, out_feature_class, in_model_definition, {in_features}, {class_label_field}, {processing_mode}, {model_arguments})
名前 | 説明 | データ タイプ |
in_raster | オブジェクトの検出に使用される入力画像。 この入力には、モザイク データセット、イメージ サービス、または画像のフォルダー内の単一のラスターまたは複数のラスターを指定することができます。 画像のアタッチメントを含むフィーチャクラスもサポートされます。 | Raster Dataset; Raster Layer; Mosaic Layer; Image Service; Map Server; Map Server Layer; Internet Tiled Layer; Folder; Feature Layer; Feature Class |
out_feature_class | 入力フィーチャクラスのオブジェクトまたはフィーチャを囲むジオメトリと、分類ラベルを格納するフィールドを含む出力フィーチャクラス。 | Feature Class |
in_model_definition | in_model_definition パラメーター値には、Esri モデル定義 JSON ファイル (*.emd)、JSON 文字列、またはディープ ラーニング モデル パッケージ (*.dlpk) を指定することができます。 JSON 文字列は、このツールがサーバーで使用されている場合に便利で、*.emd ファイルをアップロードする代わりに JSON 文字列を貼り付けることができます。 *.dlpk ファイルはローカルに格納する必要があります。 これには、ディープ ラーニング バイナリ モデル ファイルへのパス、使用される Python ラスター関数へのパス、および他のパラメーター (望ましいタイル サイズやゼロ詰めなど) が含まれます。 | File; String |
in_features (オプション) | 分類されラベル付けされる各オブジェクトまたはフィーチャの位置を識別するポイント、ライン、またはポリゴン入力フィーチャクラス。 入力フィーチャクラスの各行は、単一のオブジェクトまたはフィーチャを表します。 入力フィーチャクラスが指定されない場合、このツールは、各入力画像に分類対象の単一オブジェクトが含まれていると判断します。 入力画像が空間参照を使用する場合、このツールからの出力はフィーチャクラスとなり、各画像の範囲が各ラベル付きフィーチャクラスの境界ジオメトリとして使用されます。 入力画像が空間参照されていない場合、このツールからの出力は、各画像の画像 ID 値とクラス ラベルを含むテーブルとなります。 | Feature Class; Feature Layer |
class_label_field (オプション) | 出力フィーチャクラス内のクラスまたはカテゴリ ラベルを含むフィールドの名前。 フィールド名を指定しないと、出力フィーチャクラスに ClassLabel という新しいフィールドが生成されます。 | String |
processing_mode (オプション) | モザイク データセットまたはイメージ サービス内のすべてのラスター アイテムを処理する方法を指定します。 入力ラスターがモザイク データセットまたはイメージ サービスである場合、このパラメーターが適用されます。
| String |
model_arguments [model_arguments,...] (オプション) | Python ラスター関数クラスに定義される関数の引数。 ここでは、実験や調整のための追加のディープ ラーニング パラメーターおよび引数 (感度を調整するための信頼性の閾値など) がリストされます。 引数の名前は、Python モジュールから入力されます。 | Value Table |
コードのサンプル
次の例では、ラベル フィールドを含む新しいフィーチャクラスを生成して、画像内の破損した建物と破損していない建物を分類します。
# Import system modules
import arcpy
from arcpy.ia import *
# Check out the ArcGIS Image Analyst extension license
arcpy.CheckOutExtension("ImageAnalyst")
# Execute
ClassifyObjectsUsingDeepLearning("C:/Data/Input_Image.tif",
"C:/Data/MyProject.gdb/Classified_Results", "C:/Data/BuildingDamageClassifier.emd",
"C:/Data/building_footprints.shp","Class_Label",
"PROCESS_AS_MOSAICKED_IMAGE", "padding 0;batch_size 4")
次の例では、ラベル フィールドを含む新しいフィーチャクラスを生成して、画像内の破損した建物と破損していない建物を分類します。
# Import system modules
import arcpy
from arcpy.ia import *
# Check out the ArcGIS Image Analyst extension license
arcpy.CheckOutExtension("ImageAnalyst")
# Define input parameters
in_raster = "C:/Classify_Objects/input_image.tif"
out_feature_class = "C:/Classify_Objects/MyProject.gdb/classified_results"
in_model_definition = "C:/Classify_Objects/BuildingDanmageClassifier.emd"
in_features = "C:/Classify_Objects/building_footprints.shp"
class_label_field = "Damaged_or_Undamaged"
model_arguments = "padding 0;batch_size 4"
process_all_raster_items = "PROCESS_AS_MOSAICKED_IMAGE"
# Execute
ClassifyObjectsUsingDeepLearning(in_raster, out_feature_class, in_model_definition,
in_features, class_label_field,
process_all_raster_items, model_arguments)
ライセンス情報
- Basic: 次のものが必要 Image Analyst
- Standard: 次のものが必要 Image Analyst
- Advanced: 次のものが必要 Image Analyst
関連トピック
- ディープ ラーニング ツールセットの概要
- ArcGIS 用のディープ ラーニング フレームワークのインストール
- ディープ ラーニング モデルのトレーニング (Train Deep Learning Model)
- ジオプロセシング ツールの検索
- ディープ ラーニングを使用したオブジェクトの検出 (Detect Objects Using Deep Learning)
- ディープ ラーニングを使用したピクセルの分類 (Classify Pixels Using Deep Learning)
- ディープ ラーニング用のトレーニング データをエクスポート (Export Training Data For Deep Learning)