Etiqueta | Explicación | Tipo de datos |
Puntos de evaluación de precisión de entrada | La clase de entidad de puntos de evaluación de precisión, creada a partir de la herramienta Crear puntos de evaluación de la precisión, que contiene los campos Classified y GrndTruth. Estos campos son tipos de campos de números enteros largos. | Feature Layer |
Matriz de confusión de salida | El nombre del archivo de salida de la matriz de confusión en formato de tabla. El formato de la tabla está determinado por la ubicación y la ruta de salida. De forma predeterminada, la salida será una tabla de geodatabase. Si la ruta no está en una geodatabase, especifique una extensión .dbf para guardarla en formato dBASE. | Table |
Disponible con una licencia de Spatial Analyst.
Disponible con licencia de Image Analyst.
Resumen
Calcula una matriz de confusión con errores de omisión y comisión y deriva un índice de acuerdo kappa, una intersección sobre combinación (IoU) y una precisión global entre el mapa clasificado y los datos de referencia.
Esta herramienta usa las salidas de la herramienta Crear puntos de evaluación de exactitud o de la herramienta Actualizar puntos de evaluación de exactitud.
Uso
En el flujo de trabajo de evaluación de la exactitud suelen utilizarse las tres herramientas siguientes en este orden: Crear puntos de evaluación de exactitud, Actualizar puntos de evaluación de exactitud y Calcular matriz de confusión.
Esta herramienta calcula una matriz de confusión usando los puntos de evaluación de exactitud. Los puntos de evaluación de exactitud se generan mediante la herramienta Crear puntos de evaluación de exactitud y se actualizan mediante la herramienta Actualizar puntos de evaluación de exactitud. Estas dos herramientas garantizan que cada punto tendrá valores de clase válidos para los campos Classified y GrndTruth. Estos campos son tipos de campos de números enteros largos. La herramienta calcula la exactitud del usuario y la exactitud del productor para cada clase, así como un índice de acuerdo Kappa global. Estos índices de exactitud oscilan entre 0 y 1, donde 1 representa el 100 por cien de exactitud. A continuación, se muestra un ejemplo de una matriz de confusión:
c_1 c_2 c_3 Total U_Accuracy Kappa c_1
49
4
4
57
0,8594
0
c_2
2
40
2
44
0,9091
0
c_3
3
3
59
65
0,9077
0
Total
54
47
65
166
0
0
P_Accuracy
0,9074
0,8511
0,9077
0
0,8916
0
Kappa
0
0
0
0
0
0,8357
Ejemplo de matriz de confusión La precisión del usuario muestra falsos positivos, donde los píxeles se clasifican incorrectamente como una clase conocida cuando deberían haberse clasificado como algo diferente. Un ejemplo sería cuando la imagen clasificada identifica un píxel como impermeable, pero la referencia lo identifica como bosque. La clase impermeable tiene píxeles extra que no debería tener según los datos de referencia.
La exactitud del usuario también se conoce como errores de comisión o errores de tipo 1. Los datos para calcular esta tasa de error se leen en las filas de la tabla.
En la fila Total se muestra el número de puntos que deben haber sido identificados como una clase dada, según los datos de referencia.
La exactitud del productor es un falso negativo, donde los píxeles de una clase conocida se clasifican como algo diferente a una clase. Un ejemplo sería cuando la imagen clasificada identifica un píxel como bosque, pero debería ser impermeable. En este caso, a la clase impermeable le faltan píxeles según los datos de referencia.
La exactitud del productor también se conoce como errores de omisión o errores de tipo 2. Los datos para calcular esta tasa de error se leen en las columnas de la tabla.
En la columna Total se muestra el número de puntos que se identificaron como una clase dada, según el mapa clasificado.
El índice de acuerdo Kappa proporciona una evaluación global de la exactitud de la clasificación.
La intersección sobre combinación (IoU) es el área de superposición entre la segmentación predicha y la realidad del terreno dividida entre el área de unión entre la segmentación predicha y la realidad del terreno. El valor medio de IoU se calcula para cada clase.
Parámetros
ComputeConfusionMatrix(in_accuracy_assessment_points, out_confusion_matrix)
Nombre | Explicación | Tipo de datos |
in_accuracy_assessment_points | La clase de entidad de puntos de evaluación de precisión, creada a partir de la herramienta Crear puntos de evaluación de la precisión, que contiene los campos Classified y GrndTruth. Estos campos son tipos de campos de números enteros largos. | Feature Layer |
out_confusion_matrix | El nombre del archivo de salida de la matriz de confusión en formato de tabla. El formato de la tabla está determinado por la ubicación y la ruta de salida. De forma predeterminada, la salida será una tabla de geodatabase. Si la ruta no está en una geodatabase, especifique una extensión .dbf para guardarla en formato dBASE. | Table |
Muestra de código
Este ejemplo calcula la matriz de confusión basada en puntos de evaluación de exactitud.
import arcpy
from arcpy.ia import *
# Check out the ArcGIS Image Analyst extension license
arcpy.CheckOutExtension("ImageAnalyst")
accuracy_assessment_points = "c:test\\aapnt2.shp"
confusion_matrix = "c:\\test\\confm.dbf"
ComputeConfusionMatrix(accuracy_assessment_points, confusion_matrix)
Entornos
Información de licenciamiento
- Basic: Requiere Image Analyst o Spatial Analyst
- Standard: Requiere Image Analyst o Spatial Analyst
- Advanced: Requiere Image Analyst o Spatial Analyst