Disponible con una licencia de Geostatistical Analyst.
En este tema, se presenta un flujo de trabajo generalizado para los estudios de estadísticas geográficas y se explican los pasos principales. Como se menciona en ¿Qué son las geoestadísticas?, las geoestadísticas son una clase de estadísticas utilizadas para analizar y predecir los valores asociados con fenómenos espaciales o espaciotemporales. Geostatistical Analyst proporciona un conjunto de herramientas que permiten construir modelos basados en coordenadas espaciales. Estos modelos se pueden aplicar a una amplia variedad de escenarios y se suelen utilizar para generar predicciones para ubicaciones no muestreadas, así como medidas de incertidumbre de estas predicciones.
El primer paso, como en casi cualquier estudio basado en datos, es examinar los datos con detenimiento. Por lo general, el primer paso es representar cartográficamente el dataset, utilizando una clasificación y un esquema de color que permitan una visualización clara de las características importantes que el dataset podría presentar, por ejemplo, un fuerte aumento en los valores desde el norte hacia el sur o una mezcla de valores altos y bajos sin ninguna disposición en particular (posiblemente un signo de que los datos se tomaron a una escala que no muestra la correlación espacial).
La segunda etapa es crear el modelo de estadísticas geográficas. Este proceso puede conllevar varios pasos, dependiendo de los objetivos del estudio (es decir, los tipos de información que debe proporcionar el modelo) y las entidades del dataset que se hayan considerado lo suficientemente importantes como para incorporarlas. En esta etapa, la información recopilada durante una exploración rigurosa del dataset y el conocimiento previo del fenómeno determinan la complejidad del modelo y la calidad de los valores interpolados y las medidas de la incertidumbre. En la figura anterior, la construcción del modelo puede implicar el procesamiento previo de los datos para eliminar las tendencias espaciales, que se modelan por separado y se agregan nuevamente en el paso final del proceso de interpolación. También podría suponer la transformación de los datos para seguir más fielmente una distribución gaussiana (exigido por algunos métodos y salidas de modelos). Aunque el examen del dataset puede revelar una amplia información, es importante incorporar cualquier conocimiento que pueda tener del fenómeno. El modelador no puede depender solamente del dataset para mostrar todas las entidades importantes; aquellas que no aparezcan se pueden incorporar al modelo ajustando los valores de los parámetros para reflejar el resultado esperado. Es importante que el modelo sea lo más realista posible para que los valores interpolados y las incertidumbres asociadas sean representaciones precisas del fenómeno real.
Además de preprocesar los datos, puede ser necesario modelar la estructura espacial (correlación espacial) del dataset. Algunos métodos, como el kriging, requieren un modelado explícito mediante funciones de semivariograma o covarianza (consulte Semivariogramas y funciones de covarianza, mientras que otros métodos, como la Ponderación de distancia inversa, dependen de un grado supuesto de estructura espacial que el modelador debe proporcionar en función del conocimiento previo del fenómeno.
Un componente final del modelo es la estrategia de búsqueda. Con ella, se define cuántos puntos de datos se utilizan para generar un valor para una ubicación que no se haya muestreado. También se puede definir su configuración espacial (ubicación con respecto a la ubicación no muestreada). Ambos factores afectan el valor interpolado y su incertidumbre asociada. En muchos métodos, se define una elipse de búsqueda, junto con el número de sectores en los que se divide la elipse y a cuántos puntos se toman de cada sector para hacer una predicción (consulte Vecindades de búsqueda).
Una vez definido completamente el modelo, se puede utilizar junto con el dataset para generar valores interpolados para todas las ubicaciones no muestreadas contenidas en un área de interés. La salida suele ser un mapa que muestra los valores de la variable que se desea modelar. El efecto de los valores atípicos se puede investigar en esta etapa, ya que probablemente provocarán un cambio de los valores de los parámetros del modelo y, por tanto, del mapa interpolado. En función del método de interpolación, el mismo modelo también se puede utilizar para generar medidas de incertidumbre para los valores interpolados. No todos los modelos tienen esta capacidad, por lo que es importante decidir en una etapa temprana si se necesitan medidas de incertidumbre. Determina cuáles de los modelos son adecuados (consulte Árboles de clasificación).
Al igual que con todos los proyectos de modelado, se debe comprobar la salida del modelo; por tanto, asegúrese de que los valores interpolados y las medidas asociadas de la incertidumbre sean razonables y correspondan a sus expectativas.
Una vez que el modelo se haya construido y ajustado satisfactoriamente y se haya verificado su salida, los resultados se pueden usar en análisis de riesgos y en la toma de decisiones.