Qué es un píxel

Un elemento fundamental que comprende una imagen digital se denomina píxel, derivado de la frase "elemento de imagen". Al trabajar con imágenes digitales en SIG y teledetección, es importante saber cómo se crean los píxeles.

Formato básico de imágenes digitales

Una imagen digital se compone de un conjunto rectangular de números que se utilizan para formar una imagen. Tiene propiedades geométricas y radiométricas. Cada número del conjunto representa un píxel. Un píxel en su forma básica es un número de un conjunto que describe el brillo y el color de un punto en una imagen cuando se visualiza. El formato de datos también se conoce como ráster o formato de imagen. La teoría de lo que comprende el número del conjunto es una función de la geometría, el valor del píxel y el color que representa, y se relaciona con su radiometría. Captura la interacción de la luz y el entorno en una ubicación específica de la geografía.

Representación gráfica de los valores en una imagen
Una imagen digital es un conjunto de valores que representan el brillo.

Naturaleza de la luz

La luz se comporta como una forma de onda o una partícula. La luz se compone de un flujo de partículas denominadas fotones. Estas partículas se originan en el sol y fluyen hacia abajo a través de la atmósfera donde algunas se absorben y otras se dispersan por la atmósfera al colisionar con partículas de aire, vapor de agua y otros componentes atmosféricos. Este flujo de fotones, tanto directo desde el sol como indirecto desde el cielo, se denomina radiación descendente o irradiancia. A continuación, los fotones chocan con un objeto de destino en la superficie de la Tierra, que absorbe algunos fotones y refleja otros. Los que se reflejan se transmiten a un sensor, algunos a través de la atmósfera, mientras que otros se absorben de nuevo. El porcentaje que mide el sensor se denomina transmitancia.

Simulación de interacción del sensor con el sol
Este diagrama muestra la interacción simplificada del sensor con el sol, tal y como observó un sensor.

Interacción de la luz con el sensor

Los fotones que llegan al frente del sensor se recopilan mediante la lente y se enfocan en un plano focal en la parte posterior del cuerpo del sensor. El plano focal es una colección de celdas físicas, como una matriz CCD, que son sensibles a los fotones. Estos son los dispositivos físicos que miden la luz entrante en el sensor y producen el número que representa el píxel de una imagen digital. Se conocen como pozos porque actúan como celdas que capturan fotones. Los fotones se comportan como partículas físicas y las celdas que los recopilan en el sensor tienen dos propiedades importantes. La primera es la capacidad de capturar el fotón. Esta propiedad se denomina rendimiento cuántico. Si 100 fotones chocan con la celda y se captan 40 de ellos, el conjunto tiene un rendimiento cuántico del 40 por ciento. La otra propiedad importante es la profundidad del pozo o la capacidad de la celda. Una celda puede tener una capacidad de 60.000 fotones. Si la celda captura más de 60.000 fotones, el resto se desborda. A veces se desbordan y se pierden, mientras que otras se desbordan a celdas adyacentes y provocan una condición denominada destello. Si bien la mayoría de los planos focales modernos tienen mecanismos para mitigar este efecto, la mayoría de los píxeles vecinos son demasiado brillantes. Dado que la luz solar fluye constantemente, el número de fotones que llegan al conjunto físico se controla con un dispositivo llamado obturador. Este es un dispositivo físico que abre la lente para recopilar fotones o cerrarla para evitar que llegue alguno. El obturador puede ser mecánico o eléctrico. En cualquier caso, permite que la celda recopile fotos durante un breve periodo de tiempo, denominado tiempo de integración o tiempo de exposición.

Diagrama de celda de fotones para explicar la absorción de fotones
Se muestra la similitud de un píxel físico como celda de fotones.

Luz como onda electromagnética

La luz visible se considera que tiene color. Es una propiedad de la luz que se caracteriza por el fenómeno de onda de luz, las ondas electromagnéticas. Las ondas se pueden describir con una periodicidad o frecuencia, y tienen una longitud de onda. Los diferentes colores de la luz tienen frecuencias y longitudes de onda diferentes. La velocidad de la luz, la frecuencia y la longitud de onda se relacionan en la relación matemática, donde c es la velocidad de la luz, f es la frecuencia de la luz y ý es la longitud de onda.

c = fý

Para las aplicaciones de teledetección y SIG, la longitud de onda de la luz es el aspecto determinante de su color. Por ejemplo, la luz con longitudes de onda de 400-500 nanómetros (nm) es azul claro, de 500-600 nm es verde y de 600-700 nm es roja, lo que se conoce como la parte visible del espectro electromagnético. El espectro electromagnético es expansivo y va desde rayos gamma de alta energía hasta ondas de radio de baja energía. Por lo general, la teledetección utiliza las porciones visibles y microondas del espectro.

Diagrama del espectro electromagnético de la luz
El diagrama del espectro electromagnético muestra colores de luz visible y el resto del espectro.

Los sensores capturan el espectro de luz

Las celdas o píxeles físicos de un sensor pueden ser sensibles a distintas longitudes de onda de luz o colores de luz diferentes. Esto se logra filtrando la luz de algún modo antes de que se detecte por medio del píxel físico fotosensible. Toda la cadena de imagen de la fuente de iluminación a píxel leído del sensor es un filtro integrado en el sensor para separar la luz de acuerdo con la longitud de onda para separar los colores.

Una imagen se compone de una banda única o de varias bandas de datos. Si es una sola banda, tiene un rango de longitud de onda que capturó. Si el píxel capturó una amplia parte del espectro visible, se denomina pancromática. Si tiene varias bandas, normalmente tres o más, se denomina multiespectral. Si tiene muchas bandas, como 100 o más, se denomina hiperespectral. Estos anchos de banda son más estrechos que las bandas pancromáticas y aíslan una parte específica del espectro. Cada banda representa una sola parte del rango espectral de la luz que se refleja desde el objetivo.

En ArcGIS, las imágenes multiespectrales se visualizan utilizando el renderizador de imágenes compuesta RGB, en el que cada banda de ráster está asignada a uno de los tres canales de color. Para imágenes con más de tres bandas de ráster, cualquiera de las tres bandas se puede utilizar para mostrar las imágenes. Los tres canales de color son rojo, azul y verde. Puede sustituir cualquier banda de ráster por cada uno de los canales.

Las imágenes en color natural habituales consisten en tres bandas en las que la banda azul se muestra en el canal azul, la banda verde se muestra en el canal verde y la banda roja se muestra en el canal rojo. Cada píxel tiene tres valores asociados a cada uno de los colores, lo que resulta en un color compuesto.

Gráfico que muestra la misma imagen en un renderizador infrarrojo de color y de color natural
Las imágenes multiespectrales se pueden visualizar como color natural e infrarrojo de color si las bandas están disponibles.

Los píxeles representan una ubicación en el suelo

Además de sus características espectrales, un píxel representa una ubicación de suelo. La siguiente figura ilustra la relación entre el píxel físico en el sensor y el área efectiva que el píxel representa en el suelo. Esta relación es una función de la geometría del sensor y los aspectos geométricos del mismo en el momento preciso en el que se capturó la imagen. El tamaño de lo que representa un píxel en el suelo se conoce como la distancia de muestra de terreno (GSD). En el sensor, los límites entre píxeles son fijos y discretos. Sin embargo, el píxel del suelo no está definido claramente porque la atmósfera y la óptica difuminan y dispersan la luz. En su lugar, los píxeles tienden a superponerse en el suelo. La función matemática que describe lo que termina en un píxel físico del sensor es la función de extensión de punto. Si la función de extensión de punto es grande, las imágenes resultantes están borrosas. Si la función de extensión de punto es pequeña, las imágenes están bien definidas con bordes nítidos.

Diagrama de píxel físico en el plano focal
Se muestra la geometría básica de un píxel en el sensor y en el suelo de una cámara de cuadro.

Almacenar valores de píxel

Como los píxeles son números digitales almacenados en la memoria del equipo, los valores son independientes y discretos. Cuando se detectan fotones, producen una carga eléctrica, que es una señal analógica o un valor continuo. Cuando el píxel se lee desde el chip de matriz CCD, se convierte en un número discreto a través de un convertidor analógico a digital. Cuando se convierten estos valores, se les asignan valores normalmente de entre 8 y 14 bits de información. El factor restrictivo es la calidad de la electrónica. Esto significa que una imagen tiene entre 256 y 16.384 valores. Normalmente, los sensores modernos tienen convertidores A/D de 12 bits, que producen 4096 niveles de gris posibles.

Diagrama de cómo se mueve una carga eléctrica en un sensor para crear un valor de píxel
Los pasos del sensor se describen desde la carga eléctrica en un píxel hasta el valor digital.

Resumen

Un píxel físico en el plano focal de un sensor absorbe los fotones que se convierten en una carga eléctrica. Este carga se convierte en un número y se coloca en un conjunto o formato ráster. Debido a que la posición y altitud del sensor en el momento exacto de la exposición se conoce con precisión, la ubicación precisa del píxel en el suelo también se conoce.

Para imágenes multiespectrales e hiperespectrales, los valores de píxel de cada una de las bandas constituyen un perfil espectral para esa ubicación en el suelo. Cada tipo de material del suelo que se muestra, como el tipo de vegetación, el suelo o material de construcción, tiene un perfil espectral único, que también se conoce como firmas espectrales. Existen muchas técnicas para normalizar los niveles de gris de píxel en la imagen con el fin de proporcionar coherencia y facilitar el análisis de las entidades y los materiales del suelo en función del análisis espectral.

El valor de un píxel es una medición de la radiación detectada que está asociada con una ubicación específica en el terreno. La teledetección utiliza esa información para analizar una entidad o fenómenos en esa ubicación. Una imagen digital es algo más que una bella imagen; es una medición radiométrica y fotogramétrica. La capacidad de analizar píxeles permite a los analistas de teledetección derivar tipos significativos de información geográfica.

Para obtener más información, consulte lo siguiente:

Temas relacionados