ラベル | 説明 | データ タイプ |
入力ラスター | 入力分類ラスター。 | Mosaic Layer; Raster Layer; Image Service; String; Raster Dataset; Mosaic Dataset |
グラウンド トゥルース データ | 入力分類画像またはその他の主題 GIS の参照データ。 入力は、ラスターでもフィーチャクラスでもかまいません。 典型的なデータは、シングル バンド、整数データ タイプの分類画像です。 ポリゴンを入力として使用している場合、トレーニング サンプルとして使用されていないポリゴンのみを使用します。 シェープファイルまたはフィーチャクラス形式の GIS 土地被覆データも使用できます。 | Mosaic Layer; Raster Layer; Feature Layer |
出力混同行列 | 表形式の混同行列の出力ファイル名。 テーブルの形式は、出力先とパスによって決定されます。 デフォルトでは、出力はジオデータベース テーブルです。 パスがジオデータベース内にない場合、.dbf 拡張子を使用して dBASE 形式で保存します。 | Table |
ランダム ポイント数 (オプション) | 生成されるランダムなポイントの合計数。 サンプリング処理やクラスの数に応じて、実際の数値はこれを超える場合がありますが、この数値を下回ることはありません。 ランダムに生成されたポイントのデフォルト数は 500 です。 | Long |
サンプリング処理 (オプション) | 使用するサンプリング方式を指定します。
| String |
最小ポイント間距離 (オプション) | 参照ポイント間の最小距離。 デフォルトは 0 です。 | Double |
Image Analyst ライセンスで利用できます。
サマリー
オミッション エラーおよびコミッション エラーを使用して混同行列を計算し、分類済みマップと参照データ間のカッパ値、IoU (Intersection over Union)、および全体的な精度を出力します。 精度は、[ディープ ラーニングを使用したピクセルの分類 (Classify Pixels Using Deep Learning)] ツールの出力と、グラウンド トゥルース データとの間で計算されます。
このツールは、ピクセル分類モデルにのみ有効で、[ディープ ラーニングを使用したピクセルの分類 (Classify Pixels Using Deep Learning)] ツールで使用される他のモデルには有効でありません。
使用法
このツールは、各クラスのユーザー精度とプロデューサー精度、および全体の Kappa 値を計算します。 精度率の範囲は 0 ~ 1 で、1 は 100 パーセントの精度を表します。 次に、混同行列の例を示します。
c_1 c_2 c_3 合計 U_Accuracy Kappa c_1
49
4
4
57
0.8594
0
c_2
2
40
2
44
0.9091
0
c_3
3
3
59
65
0.9077
0
合計
54
47
65
166
0
0
P_Accuracy
0.9074
0.8511
0.9077
0
0.8916
0
Kappa
0
0
0
0
0
0.8357
混同行列の例 ユーザー精度とは、あるクラスに分類されたすべてのピクセルのうち、正しく分類されたピクセルの割合のことです。 このクラスに分類された残りのピクセルは、別のクラスに属するか、参照情報をもとに別のクラスとして識別されたもので、偽陽性になります。
ユーザー精度も、コミッション エラーまたはタイプ 1 のエラーと呼ばれます。 このエラー率を計算するデータは、テーブルの行から読み取られます。
合計行は、基準データに従い、指定のクラスとして識別されたポイントの数を示します。
プロデューサー精度は、偽陰性です。既知のクラスのピクセルは、そのクラス以外のクラスに分類されます。 たとえば、分類された画像でピクセルが森林を示しても、不透水性である場合があります。 この場合、基準データに従うと、不透水性クラスにピクセルが存在しません。
プロデューサー精度も、コミッション エラーまたはタイプ 2 のエラーと呼ばれます。 このエラー率を計算するデータは、テーブルの列で読み取られます。
合計列は、分類済みマップに従い、指定のクラスとして識別されたポイントの数を示します。
Kappa 指数は、分類の精度の全体的な評価を提供します。
IoU (Intersection over Union) とは、予測セグメンテーションとグランド トゥルースの間のオーバーラップ エリアを、予測セグメンテーションとグランド トゥルースの間の和集合で割ったものです。 平均 IoU 値はクラスごとに計算されます。
パラメーター
ComputeAccuracyForPixelClassification(in_raster, in_ground_truth_data, out_confusion_matrix, {num_random_points}, {sampling}, {min_point_distance})
名前 | 説明 | データ タイプ |
in_raster | 入力分類ラスター。 | Mosaic Layer; Raster Layer; Image Service; String; Raster Dataset; Mosaic Dataset |
in_ground_truth_data | 入力分類画像またはその他の主題 GIS の参照データ。 入力は、ラスターでもフィーチャクラスでもかまいません。 典型的なデータは、シングル バンド、整数データ タイプの分類画像です。 ポリゴンを入力として使用している場合、トレーニング サンプルとして使用されていないポリゴンのみを使用します。 シェープファイルまたはフィーチャクラス形式の GIS 土地被覆データも使用できます。 | Mosaic Layer; Raster Layer; Feature Layer |
out_confusion_matrix | 表形式の混同行列の出力ファイル名。 テーブルの形式は、出力先とパスによって決定されます。 デフォルトでは、出力はジオデータベース テーブルです。 パスがジオデータベース内にない場合、.dbf 拡張子を使用して dBASE 形式で保存します。 | Table |
num_random_points (オプション) | 生成されるランダムなポイントの合計数。 サンプリング処理やクラスの数に応じて、実際の数値はこれを超える場合がありますが、この数値を下回ることはありません。 ランダムに生成されたポイントのデフォルト数は 500 です。 | Long |
sampling (オプション) | 使用するサンプリング方式を指定します。
| String |
min_point_distance (オプション) | 参照ポイント間の最小距離。 デフォルトは 0 です。 | Double |
コードのサンプル
この例では、500 個の階層別ランダム ポイントを使用して混同行列を生成します。
import arcpy
arcpy.env.workspace = r"C:\Data\MyProject.gdb"
arcpy.ia.ComputeAccuracyForPixelClassification("BGYRre_ps16_ClassifyPixel",
"Classified_202412301648436631322", "BGYNIR_ps16_ComputeAccura", 500,
"STRATIFIED_RANDOM", 0)
この例では、500 個のランダム ポイントを使用して混同行列を生成します。
# Import system modules
import arcpy
from arcpy.ia import *
# Check out the ArcGIS Image Analyst extension license
arcpy.CheckOutExtension("ImageAnalyst")
# Set local variables
in_raster=r"C:\DL\MyProject.gdb\BGYClassifyPixel"
in_ground_truth=r"C:\DL\MyProject.gdb\Classified_2024"
out__matrix=r"C:\DL\MyProject.gdb\BGYN_ComputeAccura"
num_random_points=500
sampling="RANDOM"
min_point_distance=10
# Execute
arcpy.ia.ComputeAccuracyForPixelClassification(in_raster, in_ground_truth,
out__matrix, num_random_points, sampling, min_point_distance)
ライセンス情報
- Basic: 次のものが必要 Image Analyst
- Standard: 次のものが必要 Image Analyst
- Advanced: 次のものが必要 Image Analyst