Disponible con una licencia de Spatial Analyst.
Disponible con licencia de Image Analyst.
En este tema se tratará la evaluación de la exactitud de la clasificación y cómo interpretar los resultados.
Evaluar la exactitud de la clasificación
La evaluación de la exactitud usa un dataset de referencia para determinar la exactitud del resultado clasificado. Los valores del dataset de referencia deben coincidir con el esquema. Los datos de referencia pueden tener varios formatos:
- Un dataset ráster que es una imagen clasificada.
- Una clase de entidad poligonal o un shapefile. El formato de la tabla de atributos de la clase de entidad debe coincidir con las muestras de entrenamiento. Para garantizar esto, puede crear el dataset de referencia usando la página Administrador de muestras de entrenamientopara leer y escribir el dataset.
- Una clase de entidad de puntos o un shapefile. El formato debe coincidir con la salida de la herramienta Crear puntos de evaluación de la exactitud. Si usa un archivo y desea convertirlo al formato correcto, use la herramienta de geoprocesamiento Crear puntos de evaluación de la exactitud.
Para realizar una evaluación de exactitud, se deben especificar dos parámetros: el número de puntos aleatorios y la estrategia de muestreo.
Número de puntos aleatorios
El parámetro Número de puntos aleatorios muestra el número total de puntos aleatorios que se generarán. El número real puede superar este número pero nunca quedar por debajo, dependiendo de la estrategia de muestreo y el número de clases. El número predeterminado de puntos generados de manera aleatoria es 500.
Estrategia de muestreo
Especifique el esquema de muestreo que desea usar:
- Aleatorio estratificado: crea puntos que se distribuyen aleatoriamente dentro de cada clase, de modo que cada una tiene un número de puntos proporcional a su área relativa. Esta es la opción predeterminada.
- Aleatorio estratificado ecualizado: crea puntos que se distribuyen aleatoriamente dentro de cada clase, de modo que cada una tenga el mismo número de puntos.
- Aleatorio: crea puntos que se distribuyen aleatoriamente por toda la imagen.
Interpretar los resultados
Una vez que ejecute la herramienta, verá una representación gráfica de la matriz de confusión. Pase el cursor por una celda para ver los valores de Recuento, Exactitud de usuario, Exactitud de productor y FScore. La puntuación kappa también se muestra en la parte inferior del panel. La tabla de salida se agrega al panel Contenido.
Analizar la diagonal
La exactitud se representa de 0 a 1, de modo que 1 equivale a una exactitud del 100 %. Los valores Exactitud de productor y Exactitud de usuario para todas las clases se indican a lo largo del eje diagonal. Los colores van del azul claro al azul oscuro. Cuanto más oscuro es el color, mayor es la exactitud. Al pasar el cursor sobre cada celda se muestran los valores para cada exactitud y un valor de FScore.
%%%%%A diferencia de la diagonal, las celdas coloreadas que están fuera de la diagonal indican la cantidad de valores de clase confundidos presentes en la matriz de confusión. Al pasar el cursor por las celdas se muestran los resultados de la matriz de confusión de cada par de clases.
Ver la matriz de confusión de salida
Si desea examinar los detalles del informe de errores, puede cargar el informe en el panel Contenido y abrirlo. Es un archivo .dbf ubicado en su proyecto o en la carpeta de salida que especificó. La tabla de confusión de la matriz muestra la exactitud del usuario (columna U_Accuracy) y la exactitud del productor (columna P_Accuracy) para cada clase, así como un índice estadístico Kappa del acuerdo global. Estos índices de exactitud oscilan entre 0 y 1, donde 1 representa el 100 por cien de exactitud. A continuación, se muestra un ejemplo de una matriz de confusión:
c_1 | c_2 | c_3 | Total | U_Accuracy | Kappa | |
---|---|---|---|---|---|---|
c_1 | 49 | 4 | 4 | 57 | 0,8594 | 0 |
c_2 | 2 | 40 | 2 | 44 | 0,9091 | 0 |
c_3 | 3 | 3 | 59 | 65 | 0,9077 | 0 |
Total | 54 | 47 | 65 | 166 | 0 | 0 |
P_Accuracy | 0,9074 | 0,8511 | 0,9077 | 0 | 0,8916 | 0 |
Kappa | 0 | 0 | 0 | 0 | 0 | 0,8357 |
La columna de precisión del usuario muestra falsos positivos, o errores de comisión, donde los píxeles se clasifican incorrectamente como una clase conocida cuando deberían haberse clasificado como algo diferente. La exactitud del usuario también se conoce como errores de tipo 1. Los datos para calcular esta tasa de error se leen en las filas de la tabla. La exactitud del usuario se calcula dividiendo el número total de puntos clasificados que coinciden con los datos de referencia entre el número total de puntos clasificados para esa clase. En la fila Total se muestra el número de puntos que deben haber sido identificados como una clase dada, según los datos de referencia. Un ejemplo sería cuando la imagen clasificada identifica un píxel como asfalto, pero los datos de referencia lo identifican como bosque. La clase asfalto tiene píxeles extra que no debería tener, según los datos de referencia.
La columna de exactitud del productor muestra falsos negativos o errores de omisión. La exactitud del productor indica con qué precisión los resultados de la clasificación satisfacen las expectativas del creador. La exactitud del productor también se conoce como error de tipo 2. Los datos para calcular esta tasa de error se leen en las columnas de la tabla. La exactitud del productor se calcula dividiendo el número total de puntos clasificados que coinciden con los datos de referencia entre el número total de puntos de referencia para esa clase. Estos valores son falsos negativos dentro de los resultados clasificados. En la columna Total se muestra el número de puntos que se identificaron como una clase dada, según el mapa clasificado. Un ejemplo sería cuando la imagen clasificada identifica un píxel como asfalto, pero la imagen clasificada lo identifica como bosque. La clase asfalto no contiene suficientes píxeles, según los datos de referencia.
La estadística Kappa del acuerdo proporciona una evaluación global de la exactitud de la clasificación.
La intersección sobre Unión (IoU) es el área de superposición entre la segmentación predicha y la realidad del terreno dividida por el área de unión entre la segmentación predicha y la realidad del terreno. El valor medio de IoU se calcula para cada clase.