ディープ ラーニングを使用したオブジェクトの分類 (Classify Objects Using Deep Learning) (Image Analyst)

Image Analyst ライセンスで利用できます。

概要

入力ラスターとオプションのフィーチャクラスに対してトレーニング済みディープ ラーニング モデルを実行し、各入力オブジェクトまたはフィーチャにクラス ラベルまたはカテゴリ ラベルを割り当てたフィーチャクラスまたはテーブルを作成します。

このツールは、トレーニング済みのモデル情報を含んでいるモデル定義ファイルを必要とします。モデルは、[ディープ ラーニング モデルのトレーニング (Train Deep Learning Model)] ツールを使用するか、TensorFlow、PyTorch、または Keras などのサードパーティのトレーニング ソフトウェアによって、トレーニングできます。モデル定義ファイルには、Esri モデル定義 JSON ファイル (*.emd) またはディープ ラーニング モデル パッケージを使用できます。モデル定義ファイルは、各オブジェクトを処理するために呼び出される Python ラスター関数のパス、およびトレーニング済みのバイナリ ディープ ラーニング モデル ファイルのパスを含む必要があります。

使用法

  • ArcGIS Pro Python 環境に適切なディープ ラーニング フレームワークの Python API (PyTorch または Keras) をインストールする必要があります。インストールしないと、Esri モデル定義ファイルをこのツールに追加した際にエラーが発生します。Esri モデル定義ファイルを作成したユーザーが、適切なフレームワーク情報を提供する必要があります。

    ArcGIS Pro のディープ ラーニング フレームワークを使用するようにコンピューターを設定するには、「ArcGIS 用のディープ ラーニング フレームワークのインストール」をご参照ください。

  • このツールは、サードパーティのディープ ラーニング Python API (PyTorch や Keras など) を呼び出し、指定された Python ラスター関数を使用して、各オブジェクトを処理します。

  • Esri Python ラスター関数の GitHub ページ Python ラスター関数の構造に、このツールの使用例が記載されています。また、例と手順に従ってカスタム Python モジュールを記述することもできます。

  • [Esri モデル定義] パラメーター値には、Esri モデル定義の JSON ファイル (*.emd)、JSON 文字列、またはディープ ラーニング モデル パッケージ (*.dlpk) を指定することができます。JSON 文字列は、このツールがサーバーで使用されている場合に便利で、.emd ファイルをアップロードする代わりに JSON 文字列を貼り付けることができます。*.dlpk ファイルはローカルに格納する必要があります。

  • *.emd ファイルについては、次のサンプルをご参照ください。

    {
        "Framework": "Keras",
        "ModelConfiguration":"KerasClassifier",
        "ModelFile":"C:\\DeepLearning\\Damage_Classification_Model_V7.h5",
        "ModelType":"ObjectClassification",
        "ImageHeight":256,
        "ImageWidth":256,
        "ExtractBands":[0,1,2],
        "CropSizeFixed": 1,
        "BlackenAroundFeature": 1,
        "ImageSpaceUsed": "MAP_SPACE", 
        "Classes": [
        {
           "Value": 0,
           "Name": "Damaged",
           "Color": [255, 0, 0]
        },
        {
           "Value": 1,
           "Name": "Undamaged",
           "Color": [76, 230, 0]
        }
        ]
    }
  • CropSizeFixed プロパティは、各オブジェクト周辺のラスター タイルのトリミング モードを定義します。値が 1 の場合、*.emd ファイル内の ImageHeightImageWidth プロパティで定義される固定のラスター タイルが使用されることを意味します。オブジェクトは、固定のタイル サイズ内の中心に配置されます。値が 0 の場合は可変タイル サイズが使用され、ラスター タイルはオブジェクトを囲む最小の境界四角形でトリミングされます。

  • BlackenAroundFeature プロパティは、各オブジェクト外のピクセルをマスクするかどうかを指定します。値が 0 の場合、オブジェクト外のピクセルはマスクされません。値が 1 の場合、オブジェクト外のピクセルはマスクされます。

  • このツールは、マップ空間内またはピクセル空間内の入力画像を処理できます。マップ空間内の画像は、マップベースの座標系です。ピクセル空間内の画像は、未処理の画像空間内で、回転も変形もされません。[ディープ ラーニング用のトレーニング データをエクスポート (Export Training Data For Deep Learning)] ツールでトレーニング データを生成するときに、[参照系] パラメーターを使用して参照系を指定できます。モデルがサードパーティのトレーニング ソフトウェアでトレーニングされている場合、ImageSpaceUsed または MAP_SPACE に設定できる PIXEL_SPACE パラメーターを使用して、*.emd ファイルで参照系を指定する必要があります。

  • 入力ラスターには、画像が添付された単一のラスター、複数のラスター、またはフィーチャクラスを使用できます。添付ファイルの詳細については、「アタッチメントの追加または削除」をご参照ください。

  • このツールの実行要件および発生する可能性のある問題の詳細については、「ディープ ラーニングに関するよくある質問ディープ ラーニングに関するよくある質問 PDF」をご参照ください。

  • ディープ ラーニングの詳細については、「ArcGIS Pro のディープ ラーニング」をご参照ください。

構文

ClassifyObjectsUsingDeepLearning(in_raster, out_feature_class, in_model_definition, {in_features}, {class_label_field}, {processing_mode}, {model_arguments})
パラメーター説明データ タイプ
in_raster

オブジェクトの検出に使用される入力画像。この入力には、モザイク データセット、イメージ サービス、または画像のフォルダー内の単一のラスターまたは複数のラスターを指定することができます。画像の添付ファイルを含むフィーチャクラスもサポートされます。

Raster Dataset; Raster Layer; Mosaic Layer; Image Service; MapServer; Map Server Layer; Internet Tiled Layer; Folder; Feature Layer; Feature Class
out_feature_class

入力フィーチャクラスのオブジェクトまたはフィーチャを囲むジオメトリと、分類ラベルを格納するフィールドを含む出力フィーチャクラス。

Feature Class
in_model_definition

in_model_definition パラメーター値には、Esri モデル定義の JSON ファイル (*.emd)、JSON 文字列、またはディープ ラーニング モデル パッケージ (*.dlpk) を指定することができます。JSON 文字列は、このツールがサーバーで使用されている場合に便利で、.emd ファイルをアップロードする代わりに JSON 文字列を貼り付けることができます。*.dlpk ファイルはローカルに格納する必要があります。

これには、ディープ ラーニング バイナリ モデル ファイルへのパス、使用される Python ラスター関数へのパス、および他のパラメーター (望ましいタイル サイズやゼロ詰めなど) が含まれます。

File; String
in_features
(オプション)

分類されラベル付けされる各オブジェクトまたはフィーチャの位置を識別するポイント、ライン、またはポリゴン入力フィーチャクラス。入力フィーチャクラスの各行は、単一のオブジェクトまたはフィーチャを表します。

入力フィーチャクラスが指定されない場合、このツールは、各入力画像に分類対象の単一オブジェクトが含まれていると判断します。入力画像が空間参照を使用する場合、このツールからの出力はフィーチャクラスとなり、各画像の範囲が各ラベル付きフィーチャクラスの境界ジオメトリとして使用されます。入力画像が空間参照されていない場合、このツールからの出力は、各画像の画像 ID 値とクラス ラベルを含むテーブルとなります。

Feature Class; Feature Layer
class_label_field
(オプション)

出力フィーチャクラス内のクラスまたはカテゴリ ラベルを含むフィールドの名前。

フィールド名を指定しないと、出力フィーチャクラスに ClassLabel という新しいフィールドが生成されます。

String
processing_mode
(オプション)

モザイク データセットまたはイメージ サービス内のすべてのラスター アイテムを処理する方法を指定します。入力ラスターがモザイク データセットまたはイメージ サービスである場合、このパラメーターが適用されます。

  • PROCESS_AS_MOSAICKED_IMAGEモザイク データセットまたはイメージ サービス内のすべてのラスター アイテムがモザイク化され、処理されます。これがデフォルトです。
  • PROCESS_ITEMS_SEPARATELYモザイク データセットまたはイメージ サービス内のすべてのラスター アイテムが、個別の画像として処理されます。
String
model_arguments
[model_arguments,...]
(オプション)

Python ラスター関数クラスに定義される関数の引数。ここでは、実験や調整のための追加のディープ ラーニング パラメーターおよび引数 (感度を調整するための信頼性の閾値など) をリストします。引数の名前は、ツールが Python モジュールを読み取ることによって入力されます。

Value Table

コードのサンプル

ClassifyObjectsUsingDeepLearning (ディープ ラーニングを使用したオブジェクトの分類) の例 1 (Python ウィンドウ)

次の例では、ラベル フィールドを含む新しいフィーチャクラスを生成して、画像内の破損した建物と破損していない建物を分類します。

# Import system modules  
import arcpy  
from arcpy.ia import *  
 
# Check out the ArcGIS Image Analyst extension license 
arcpy.CheckOutExtension("ImageAnalyst") 
 
# Execute 
ClassifyObjectsUsingDeepLearning("C:/Data/Input_Image.tif", 
	"C:/Data/MyProject.gdb/Classified_Results", "C:/Data/BuildingDamageClassifier.emd", 
	"C:/Data/building_footprints.shp","Class_Label", 
	"PROCESS_AS_MOSAICKED_IMAGE", "padding 0;batch_size 4")
ClassifyObjectsUsingDeepLearning (ディープ ラーニングを使用したオブジェクトの分類) の例 2 (スタンドアロン スクリプト)

次の例では、ラベル フィールドを含む新しいフィーチャクラスを生成して、画像内の破損した建物と破損していない建物を分類します。

# Import system modules  
import arcpy  
from arcpy.ia import *  
 
# Check out the ArcGIS Image Analyst extension license 
arcpy.CheckOutExtension("ImageAnalyst") 
 
# Define input parameters
in_raster = "C:/Classify_Objects/input_image.tif" 
out_feature_class = "C:/Classify_Objects/MyProject.gdb/classified_results" 
in_model_definition = "C:/Classify_Objects/BuildingDanmageClassifier.emd" 
in_features = "C:/Classify_Objects/building_footprints.shp" 
class_label_field = "Damaged_or_Undamaged"
model_arguments = "padding 0;batch_size 4"
process_all_raster_items = "PROCESS_AS_MOSAICKED_IMAGE"

# Execute 
ClassifyObjectsUsingDeepLearning(in_raster, out_feature_class, in_model_definition,
	in_features, class_label_field,  
	process_all_raster_items, model_arguments)

ライセンス情報

  • Basic: 次のものが必要 Image Analyst
  • Standard: 次のものが必要 Image Analyst
  • Advanced: 次のものが必要 Image Analyst

関連トピック