精度評価

Spatial Analyst のライセンスで利用可能。

Image Analyst ライセンスで利用できます。

分類の精度評価

精度評価では、参照データセットを使用して、分類された結果の精度を決定します。 参照データセットの値はスキーマに一致している必要があります。 参照データセットには、さまざまな形式を使用できます。

  • 分類済み画像であるラスター データセット
  • ポリゴン フィーチャクラスまたはシェープファイル。 フィーチャクラスの属性テーブルの形式はトレーニング サンプルに一致している必要があります。 これを確実に行うには、トレーニング サンプル マネージャーを使用し、データセットの読み取り/書き込みを行って、参照データセットを作成します。
  • ポイント フィーチャクラスまたはシェープファイル。 この形式は、[精度評価ポイントの作成 (Create Accuracy Assessment Points)] ツールの出力と一致している必要があります。 既存のファイルを使用中に、そのファイルを適切な形式に変換したい場合は、[精度評価ポイントの作成 (Create Accuracy Assessment Points)] ジオプロセシング ツールを使用します。

ランダム ポイント数

生成されるランダムなポイントの合計数。 サンプリング処理やクラスの数に応じて、実際の数値はこれを超える場合がありますが、この数値を下回ることはありません。 ランダムに生成されたポイントのデフォルト数は 500 です。

サンプリング処理

使用するサンプリング方式を指定します。

  • 階層別ランダム - 各クラス内にランダムに分散したポイントを作成します。各クラスには、相対的な面積に比例した、多数のポイントが含まれています。 これがデフォルトです。
  • 均等階層別ランダム - 各クラス内にランダムに分散したポイントを作成します。各クラスのポイント数は同じです。
  • ランダム - 画像全体にランダムに分散したポイントを作成します。

結果の理解

ツールを実行すると、混同行列がグラフ表示されます。 セルにポインターを合わせると、[Count][User Accuracy][Producer Accuracy]、および [FScore] が表示されます。 ウィンドウの下部に、Kappa スコアも表示されます。 出力テーブルが [コンテンツ] ウィンドウに追加されます。

対角の解析

精度は 0 ~ 1 の範囲で表します。1 は 100% の精度を意味します。 すべてのクラスのプロデューサー精度とユーザー精度は、対角線の軸に沿って示されます。 対角に沿った色は薄い青から濃い青への変化で表され、青色が濃いほど、精度が高いことを意味します。 各セルにカーソルを合わせると、それぞれの精度の値と F スコアが表示されます。

対角とは異なり、非対角にある色付きのセルは、混同行列内の混同しているクラス値の数を示します。 これらのセルにカーソルを合わせると、クラスのペアごとの混同行列の結果を確認できます。

精度評価の結果

出力した混同行列の表示

エラー レポートの詳細を検証するには、[コンテンツ] ウィンドウにレポートを読み込んで開きます。 エラー レポートは、プロジェクトの *.dbf ファイルか、指定した出力フォルダー内にあります。 混同行列テーブルには、各クラスのユーザー精度 (U_Accuracy 列) とプロデューサー精度 (P_Accuracy 列) だけでなく、全体の Kappa 値も示されています。 精度率の範囲は 0 ~ 1 で、1 は 100 パーセントの精度を表します。 次に、混同行列の例を示します。

c_1c_2c_3合計U_AccuracyKappa

c_1

49

4

4

57

0.8594

0

c_2

2

40

2

44

0.9091

0

c_3

3

3

59

65

0.9077

0

合計

54

47

65

166

0

0

P_Accuracy

0.9074

0.8511

0.9077

0

0.8916

0

Kappa

0

0

0

0

0

0.8357

混同行列の例

ユーザー精度列は、偽陽性 (またはコミッション エラー) を示します。この場合、ピクセルは別のクラスに分類されなければならないが、誤って既知のクラスとして分類されます。 ユーザー精度は、タイプ 1 エラーとも呼ばれています。 このエラー率を計算するデータは、テーブルの行から読み取られます。 ユーザー精度を計算するには、基準データに適合する分類済みポイントの合計数を、該当するクラスの分類済みポイントの合計数で除算します。 [合計] 行は、基準データに従い、指定のクラスとして識別されるべきポイント数を示します。 たとえば、分類された画像でピクセルがアスファルトを示しても、基準データは森林を示す場合があります。 アスファルト クラスには、基準データに従うと存在しない余分なピクセルがあります。

プロデューサー精度列は、偽陰性 (またはオミッション エラー) を示します。 プロデューサー精度は、分類結果がどれだけ正確に作成者の期待に沿っているかを表します。 プロデューサー精度は、タイプ 2 エラーとも呼ばれています。 このエラー率を計算するデータは、テーブルの列で読み取られます。 プロデューサー精度を計算するには、基準データに適合する分類済みポイントの合計数を、該当するクラスの基準ポイントの合計数で除算します。 これらの値は分類済みの結果内で偽陰性の値になります。 [合計] 列は、分類済みマップに従い、指定のクラスとして識別されたポイント数を示します。 たとえば、基準データでピクセルがアスファルトを示しても、分類された画像は森林を示す場合があります。 基準データに従うと、アスファルト クラスには十分なピクセルがありません。

Kappa 値は、分類の精度の全体的な評価を提供します。

関連トピック


このトピックの内容
  1. 分類の精度評価
  2. 結果の理解