Image Analyst ライセンスで利用できます。
Spatial Analyst のライセンスで利用可能。
すべての教師付きディープ ラーニング タスクはラベル付きのデータセットに依存しているため、人間がその知識を活用して、識別させる内容に対してニューラル ネットワークをトレーニングする必要があります。 ラベル付きのオブジェクトは、ニューラル ネットワークがデータの推論の実行に使用できるモデルをトレーニングするために使用します。
画像のアノテーションまたはラベリングは、コンピューター ビジョンや学習などのディープ ラーイング タスクに欠かすことができません。 優れたディープ ラーニング モデルをトレーニングするには、大量のラベル付きデータが必要です。 適切なトレーニング データを利用できる場合、ディープ ラーニング システムは、フィーチャ抽出、パターン認識、および複雑な問題の解決を非常に正確に実行できます。 [ディープ ラーニングのオブジェクトのラベル付け] ウィンドウを使用して、データに迅速かつ正確にラベルを付けることができます。
[ディープ ラーニングのオブジェクトのラベル付け] ボタンは、[画像] タブの [画像分類] グループの [分類ツール] ドロップダウン メニューにあります。 このウィンドウは、2 つのパートに分かれています。 ウィンドウの上部はクラスの管理に使用され、ウィンドウの下部はサンプルのコレクションの管理とディープ ラーニング フレームワークのトレーニング データのエクスポートに使用されます。
クラスの作成とオブジェクトのラベル付け
ウィンドウの上部では、オブジェクト クラスを管理し、ディープ ラーニング モデルのトレーニングに使用するオブジェクトを手動で作成できます。 ラベル付きオブジェクトの作成に役立つさまざまなツールがあります。
ツール | 関数 |
---|---|
ラスター内のフィーチャまたはオブジェクトの周囲に四角形を描画して、ラベル付きオブジェクトを作成します。 | |
ラスター内のフィーチャまたはオブジェクトの周囲にポリゴンを描画して、ラベル付きオブジェクトを作成します。 | |
ラスター内のフィーチャまたはオブジェクトの周囲に円を描画して、ラベル付きオブジェクトを作成します。 | |
ラスター内のフィーチャまたはオブジェクトの周囲にフリーハンドの図形を描画して、ラベル付きオブジェクトを作成します。 | |
セグメント レイヤーからセグメントを選択して、フィーチャを作成します。 このオプションは、[コンテンツ] ウィンドウ内にセグメント レイヤーが存在する場合にのみ使用できます。 [コンテンツ] ウィンドウ内のセグメント レイヤーをハイライト表示させることによって、[セグメント ピッカー] をアクティブにし、[セグメント ピッカー] ドロップダウン リストからレイヤーを選択します。 | |
ラベル付きオブジェクトを選択および編集します。 | |
分類スキーマを作成します。 | |
分類スキーマのオプションを選択します。
| |
変更をスキーマに保存します。 | |
スキーマの新しいコピーを保存します。 | |
クラス カテゴリをスキーマに追加します。 まず、スキーマの名前を選択して、最高レベルの親クラスを作成します。 既存のクラスの名前を選択して、サブクラスを作成します。 | |
選択したクラス カテゴリまたはサブクラス カテゴリをスキーマから削除します。 |
- オブジェクト サンプルの収集を開始するには、[四角形]、[ポリゴン]、[円]、[フリーハンド] などのスケッチ ツールのいずれかをクリックします。
- スケッチ ツールを使用して、オブジェクトを表す画像フィーチャをマップに描画します。
- クラスを指定せずにフィーチャを作成している場合、[クラスの定義] ダイアログ ボックスが表示されます。 このダイアログ ボックスの詳細については、「クラスの定義」をご参照ください。
- 上記の手順で、引き続きオブジェクトの作成とラベル付けを行います。
- [ラベル付きオブジェクト] タブ (ウィンドウの下部) を使用して、ラベル付きオブジェクトのサンプルを削除および整理できます。
- すべてのラベル付きオブジェクトに問題がなければ、[ラベル付きオブジェクト] タブの [保存] ボタン をクリックしてサンプルを保存します。
これでオブジェクトの代表的なサンプルに手動でラベルを付けたので、これらを使用してトレーニング データをエクスポートできます。
クラスの定義
[クラスの定義] ダイアログ ボックスを使用して、新しいクラスを作成したり、既存のクラスを定義したりできます。 [既存のクラスを使用] を選択した場合は、そのオブジェクトに適切な [クラス名] オプションを選択します。 [新しいクラスの追加] を選択した場合、必要に応じて情報を編集し、[OK] をクリックして新しいクラスを作成できます。
ラベル付きオブジェクト
ウィンドウの下部のセクションにある [ラベル付きオブジェクト] タブでは、クラスごとに収集したトレーニング サンプルが表示され、管理されます。 画像内のクラスごとに、代表的な領域 (つまり、トレーニング サンプル) を収集します。 トレーニング サンプルは、位置情報 (ポリゴン) および関連するクラスを含んでいます。 画像分類アルゴリズムは、フィーチャクラスとして保存されたトレーニング サンプルを使用して、画像全体の土地被覆クラスを識別します。
トレーニング サンプルを表示し、それらを追加したり、グループ化したり、削除することによって、管理できます。 トレーニング サンプルを選択すると、マップ上でそのサンプルが選択されます。 テーブル内のトレーニング サンプルをダブルクリックすると、マップ内のそのサンプルにズームします。
ツール | 関数 |
---|---|
既存のトレーニング サンプル フィーチャクラスを開きます。 | |
現在のラベル付きオブジェクト フィーチャクラスに対して行った編集内容を保存します。 | |
現在のラベル付きオブジェクトを新しいフィーチャクラスとして保存します。 | |
選択したラベル付きオブジェクトを削除します。 |
トレーニング データのエクスポート
サンプルを収集したら、[トレーニング データのエクスポート] タブをクリックして、サンプルをトレーニング データにエクスポートできます。 その後、トレーニング データをディープ ラーニング モデルで使用できます。 パラメーターを入力したら、[実行] をクリックしてトレーニング データを作成します。
パラメーター | 説明 |
---|---|
出力フォルダー | トレーニング データを保存する出力フォルダーを選択します。 |
マスク ポリゴン フィーチャ | 画像チップが作成される領域を描画するポリゴン フィーチャクラス。 このポリゴンに完全に含まれる画像チップのみが作成されます。 |
画像形式 | 画像チップ出力のラスター形式を指定します。
PNG 形式および JPEG 形式は、3 バンドまでサポートします。 |
タイル サイズ X | 画像チップのサイズ (x ディメンション)。 |
タイル サイズ Y | 画像チップのサイズ (y ディメンション)。 |
ストライド X | 次の画像チップを作成する際に x 方向に移動する距離。 ストライドがタイル サイズと等しい場合、オーバーラップは発生しません。 ストライドがタイル サイズの半分と等しい場合は、50% のオーバーラップが発生します。 |
ストライド Y | 次の画像チップを作成する際に y 方向に移動する距離。 ストライドがタイル サイズと等しい場合、オーバーラップは発生しません。 ストライドがタイル サイズの半分と等しい場合は、50% のオーバーラップが発生します。 |
回転角度 | 追加の画像チップを生成するために使用される回転角度。 画像チップは、0 の回転角度 (つまり、回転しない) で生成されます。 その後、画像チップは、追加の画像チップを作成するために、指定した角度で回転されます。 データ拡大のために、同じトレーニング サンプルが、複数の角度の複数の画像チップでキャプチャされます。 デフォルトの回転角度は 0 です。 |
フィーチャなしのタイルを出力 | トレーニング サンプルをキャプチャしない画像チップをエクスポートするかどうかを指定します。
|
メタデータ形式 | 出力メタデータ ラベルの形式を指定します。 入力トレーニング サンプル データがビルディング レイヤーなどのフィーチャ クラス レイヤーまたは標準分類トレーニング サンプル ファイルの場合、[KITTI ラベル] または [PASCAL Visual Object Classes] オプションを使用します (Python では KITTI_rectangles か PASCAL_VOC_rectangles)。 出力メタデータは、最小境界範囲内のトレーニング サンプル データを含む *.txt ファイルまたは *.xml ファイルです。 メタデータ ファイルの名前は、入力ソース画像名と一致します。 入力トレーニング サンプル データがクラス マップの場合、出力メタデータ形式として [分類タイル] オプション (Python の Classified_Tiles) を使用します。
KITTI メタデータ形式では 15 個の列が作成されますが、そのうちツールで使用されるのは 5 つのみです。 最初の列はクラス値です。 次の 3 つの列はスキップされます。 5 ~ 8 番目の列は、4 つの画像座標位置 (上下左右のピクセル) で構成される最小境界範囲を定義します。 最小境界範囲には、ディープ ラーニング分類器に使用されるトレーニング チップが含まれます。 残りの列は使用されません。 |
フィーチャの周囲を黒く表示 | それぞれの画像ファイル内で各オブジェクトまたはフィーチャの周囲のピクセルをマスクするかどうかを指定します。
このパラメーターは、メタデータ形式が [ラベル付きタイル] に設定されており、入力フィーチャクラスまたは分類ラスターが指定されている場合にのみ適用されます。 |
トリミング モード | エクスポートされたタイルが、すべて同じサイズになるようにトリミングされるかどうかを指定します。
このパラメーターは、メタデータ形式が [ラベル付きタイル] に設定されており、入力フィーチャクラスまたは分類ラスターが指定されている場合にのみ適用されます。 |
参照系 | 入力画像を解釈するために使用する参照系のタイプを指定します。 指定する参照系は、ディープ ラーニング モデルをトレーニングするために使用する参照系と一致する必要があります。
|
追加入力ラスター | 画像変換方法の追加の入力画像ソース。 このパラメーターは、[メタデータ形式] パラメーターが [分類済みタイル]、[タイルのエクスポート]、または [CycleGAN] に設定されている場合に有効です。 |
これで、エクスポートされたトレーニング データが、ディープ ラーニング モデル内で使用できるようになりました。