Cómo funciona Interpolación kernel con barreras

La interpolación kernel es una variante de unainterpolación polinómica local de primer orden en la que se evita la inestabilidad en los cálculos mediante un método similar al utilizado en la regresión de cresta para estimar los coeficientes de regresión. Cuando la estimación tiene solo un pequeño sesgo y es mucho más precisa que un estimador no sesgado, es muy probable que sea el estimador preferido. Puede obtener más detalles sobre la regresión de cresta, por ejemplo, en Hoerl y Kennard (1970).

El error de predicción de la interpolación polinómica local se estima presuponiendo que el modelo es correcto, es decir, que el número de condición espacial es muy pequeño en todas partes. Esta suposición se incumple a menudo y el número de condición espacial resalta áreas en las que las predicciones y los errores estándar de la predicción son inestables. En el modelo de suavizado kernel, el problema con los errores estándar de la predicción excesivamente grandes y las predicciones cuestionables se corrige con el parámetro de cresta, introduciendo una pequeña cantidad de sesgo en las ecuaciones. Esto hace que el mapa del número de condición espacial sea innecesario. Por lo tanto, la interpolación kernel ofrece solo Predicción y Error estándar de la predicción para el tipo de superficie de salida. Dado que el parámetro de cresta introduce un sesgo para estabilizar las predicciones, el parámetro de cresta debería ser lo más pequeño posible, sin dejar de mantener la estabilidad del modelo. Encontrará información detallada sobre este proceso en "Local Polynomials for Data Detrending and Interpolation in the Presence of Barriers", Gribov y Krivoruchko (2010).

Otra diferencia entre los dos modelos es que el modelo de interpolación kernel utiliza la distancia más corta entre puntos, de modo que los puntos de los lados de la barrera no transparente (absoluta) especificada estén conectados por una serie de líneas rectas.

La interpolación kernel utiliza los siguientes kernels radialmente simétricos: exponencial, gaussiano, cuártico, de Epanechnikov, polinómico de orden 5 y constante. El ancho de banda del kernel viene determinado por un rectángulo alrededor de las observaciones.

El kernel de Epanechnikov produce generalmente mejores resultados cuando se utilizan polinomios de primer orden. Sin embargo, dependiendo de los datos, los diagnósticos de validación y validación cruzada pueden sugerir otro kernel, Fan y Gijbelsen (1996).

A continuación, se comparan las predicciones de la interpolación kernel con barreras con barreras absolutas, a la izquierda, y sin ellas, a la derecha. Observe cómo cambian bruscamente las curvas de nivel en las barreras en el gráfico de la izquierda, pero las curvas de nivel fluyen suavemente sobre las barreras en el gráfico de la derecha.

Predicciones de la interpolación kernel con barreras absolutas
Predicciones de la interpolación kernel con barreras absolutas.
Predicciones de la interpolación kernel sin barreras absolutas
Predicciones de la interpolación kernel sin barreras absolutas.

En aplicaciones hidrológicas y meteorológicas, pueden ser preferibles modelos basados en la distancia más corta entre puntos.

Funciones de kernel

Funciones de kernel: en todas las fórmulas siguientes, r es un radio centrado en el punto s y h es el ancho de banda.

  • Exponencial:

    Función de kernel exponencial

  • Gaussiano:

    Función de kernel gaussiano

  • Cuártico:

    Función de kernel cuártico

  • Epanechnikov:

    Función de kernel de Epanechnikov

  • PolynomialOrder5:

    Función de kernel PolynomialOrder5

  • Constante:

    Función de kernel constante

    donde I(expresión) es una función del indicador que adquiere un valor 1 si la expresión es verdadera (true) y un valor de 0 si la expresión es falsa (false).

El parámetro de ancho de banda se aplica a todas las funciones de kernel excepto Constante. Las funciones de kernel exponencial, gaussiano y constante también admiten una vecindad de búsqueda suave para limitar el rango del kernel.

Referencias y bibliografía adicional

Fan, J. y Gijbels, I. (1996). Local Polynomial Modelling and Its Applications, Chapman & Hall. Londres.

Hoerl, A.E. y Kennard, R.W. (1970), Ridge regression: biased estimation for nonorthogonal problems, Technometrics, 12, 55-67.

Yan, Xin. (2009) Linear regression analysis: theory and computing. Publicado por World Scientific Publishing Co. Pte. Ltd. 5 Toh Tuck Link, Singapur 596224.

Temas relacionados