Présentation d'un pixel

Un élément fondamental constitué d'une image numérique est appelée pixel, dont le nom est dérivé de l'expression "élément d'image". Si vous utilisez l'imagerie numérique dans le SIG et la télédétection, vous devez absolument savoir comment les pixels sont créés.

Format de base de l'imagerie numérique

Une image numérique est composée d'une matrice rectangulaire de nombres utilisés pour constituer une image. Elle possède à la fois des propriétés géométriques et des propriétés radiométriques. Chaque nombre de la matrice représente un pixel. Dans sa forme la plus simple, un pixel est un nombre dans une matrice qui décrit la luminosité et la couleur d'un point sur une image lorsqu'elle est affichée. Le format de données est également appelé format de raster ou d'image. Les propriétés physiques de ce qui constitue le nombre dans la matrice sont une fonction de la géométrie, de la valeur du pixel et de la couleur qu'elle représente et sont liées à sa radiométrie. Elle capture l'interaction de la lumière et de l'environnement à une localisation spécifique de la zone géographique.

Représentation graphique des valeurs dans une image
Une image numérique est une matrice de valeurs représentant la luminosité.

Nature de la lumière

La lumière se comporte comme une onde ou une particule. Elle est composée d'un flux de particules appelées photons. Ces particules proviennnent du soleil et traversent l'atmosphère, où certaines sont absorbées et d'autres sont éparpillées le long du chemin atmosphérique lorsqu'elles entrent en collision avec les particules de l'air, la vapeur d'eau et d'autres constituants atmosphériques. Ce flux de photons, direct du soleil et indirect du puit de lumière, est appelé rayonnement descendant ou rayonnement. Les photons heurtent alors un objet cible à la surface de la Terre, où des photons sont absorbés par la cible et d'autres sont reflétés. Ceux reflétés sont transmis à un capteur, d'autres sont transmis via l'atmosphère et d'autres sont à nouveau absorbés. Le pourcentage mesuré par le capteur est appelé transmission.

Simulation de l'interaction du capteur orienté vers le soleil
Ce diagramme illustre l'interaction simplifiée du capteur orienté vers le soleil telle qu'observée par un capteur.

Interaction de la lumière avec le capteur

Les photons qui atteignent le devant du capteur sont collectés par l'objectif et concentrés sur un plan focal à l'arrière du corps du capteur. Le plan focal est une collection de cellules physiques, telles qu'une matrice CCD, sensibles aux photons. Il s'agit des appareils physiques qui mesurent la lumière entrant dans le capteur et génèrent le numéro qui représente le pixel d'une image numérique. Ils sont appelés puits car ils servent de compartiments qui collectent les photons. Les photons se comportent comme des particules physiques et les compartiments qui les collectent dans le capteur possèdent deux propriétés importantes. La première est la capacité à capturer le photon. Cette propriété est appelée efficacité quantique. Si 100 photons atteignent le compartiment et que 40 d'entre eux sont collectés, la matrice possède une efficacité quantique de 40 %. L'autre propriété importante est la profondeur du puit ou la capacité du compartiment. Un compartiment peut avoir une capacité de 60 000 photons. Si plus de 60 000 photons sont collectés par le compartiment, la quantité excédentaire déborde. Parfois, ils débordent et son perdus, mais ils peuvent également déborder dans des compartiments adjacents et entraîner une condition appelée flare. Lors d'un flare, les pixels voisins sont trop lumineux, mais la plupart des plans focaux modernes sont dotés de mécanismes permettant de limiter cet effet. La lumière du soleil étant diffusée en continu, le nombre de photons qui atteignent la matrice physique est contrôlé par un appareil appelé obturateur. Il s'agit d'un appareil physique qui ouvre l'objectif pour collecter les photons ou le ferme pour les empêcher d'entrer. L'obturateur peut être mécanique ou électrique. Dans les deux cas, il permet au compartiment de collecter des photons pour une courte période à la fois, appelée temps d'intégration ou temps d'exposition.

Diagramme du compartiment de photons pour expliquer l'absorption des photons
Une analogie d'un pixel physique sur un plan focal comme compartiment de photons est illustrée.

Lumière comme onde électromagnétique

La lumière visible est perçue comme ayant une couleur. Il s'agit d'une propriété de la lumière caractérisée par le phénomène d'onde des ondes lumineuses électromagnétiques. Les ondes peuvent être décrites comme possédant une périodicité ou fréquence et elles possèdent une longueur d'onde. Les différentes couleurs de la lumière possèdent des fréquences et longueurs d'onde différentes. La vitesse de la lumière, la fréquence et la longueur d'onde sont liées selon une relation mathématique, où c correspond à la vitesse de la lumière, f à la fréquence de la lumière et ý, à la longueur d'onde.

c = fý

Pour les applications de télédétection et SIG, la longueur d'onde de la lumière est l'aspect déterminant de sa couleur. Par exemple, la lumière dont les longueurs d'onde sont de 400 à 500 nanomètres (nm) est bleue. Entre 500 et 600 nm, elle est verte et entre 600 et 700 nm, elle est rouge. C'est ce que l'on appelle la portion visible du spectre électromagnétique. Le spectre électromagnétique est large et s'étend des rayons gamma de haute énergie aux ondes radio de faible énergie. La télédétection utilise généralement les portions visible et micro-ondes du spectre.

Diagramme du spectre électromagnétique de la lumière
Le diagramme du spectre électromagnétique de la lumière représente les couleurs de la lumière visible et le reste du spectre.

Les capteurs capturent le spectre de la lumière

Les compartiments ou pixels physiques dans un capteur peuvent être sensibles à différentes longueurs d'onde de lumière ou différentes couleurs de lumière. Pour cela, la lumière est filtrée d'une certaine manière avant d'être détectée par le pixel physique photosensible. L'intégralité de la chaîne d'images, de la source d'illumination à la lecture des pixels par le capteur est un filtre intégré au capteur pour séparer la lumière en fonction de la longueur d'onde afin de séparer les couleurs.

Une image est constituée d'un canal ou de plusieurs canaux de données. Si elle est constituée d'un seul canal, elle possède une plage de longueurs d'onde qu'elle a capturée. Si le pixel a capturé une grande portion du spectre visible, il est qualifié de panchromatique. S'il comporte plusieurs canaux (en général, au moins trois) il est qualifié de multispectral. S'il comporte un grand nombre de canaux (par exemple, 100 ou plus), il est qualifié d'hyperspectral. Ces bandes passantes sont plus étroites que les canaux panchromatiques et isolent une portion particulière du spectre. Chaque canal représente une portion unique de la plage spectrale de la lumière reflétée par la cible.

Dans ArcGIS, l'imagerie multispectrale est affichée à l'aide de la représentation de la composition colorée RVB, dans laquelle chaque canal raster est apparié à un, deux ou trois canaux de couleur. Pour les images comportant plus de trois canaux raster, n'importe lequel des trois canaux peut être utilisé pour afficher l'imagerie. Les trois canaux de couleur sont le rouge, le bleu et le vert. Vous pouvez substituer tout canal raster pour chacun des canaux.

Les images courantes à couleurs naturelles sont constituées de trois canaux dans lesquels le canal bleu est affiché dans le canal bleu, le canal vert, dans le canal vert et le canal rouge, dans le canal rouge. Chaque pixel possède trois valeurs associées à chacune des couleurs, pour parvenir à une composition colorée.

Graphique illustrant la même image représentée en couleur naturelle et en couleur infrarouge
Les images multispectrales peuvent être affichées en couleurs naturelles et couleurs infrarouge si les canaux sont disponibles.

Les pixels représentent une localisation au sol

En plus de ses caractéristiques spectrales, un pixel représente une localisation au sol. La figure ci-après illustre la relation entre le pixel physique dans le capteur et la surface effective représentée par le pixel au sol. Cette relation est une fonction de la géométrie du capteur et de ses aspects géométriques au moment précis où l'image a été capturée. La taille de ce qu'un pixel représente au sol est appelée résolution au sol moyenne (GSD). Dans le capteur, les limites entre les pixels sont fixes et discrètes. Toutefois, le pixel au sol n'est pas défini clairement car l'atmosphère et l'optique sont flous et dispersent la lumière. Au lieu de cela, les pixels ont tendance à se superposer au sol. La fonction mathématique qui décrit le contenu d'un pixel physique dans le capteur est la fonction de dispersion des points. Si la fonction de dispersion des points est grande, l'imagerie résultante est floue. Si la fonction de dispersion des points est petite, l'imagerie est bien définie avec des bords nets.

Diagramme du pixel physique sur le plan focal
La géométrie de base d'un pixel dans le capteur et au sol pour une caméra full-frame est illustrée.

Stockage des valeurs de pixel

Les pixels étant des nombres numériques stockés dans la mémoire de l'ordinateur, les valeurs sont séparées et discrètes. Lorsque les photons sont détectés, ils génèrent une charge électrique, qui est un signal analogue ou une valeur continue. Lorsque le pixel est lu par le capteur CCD, il est converti en un nombre discret par l'intermédiaire d'un convertisseur analogique-numérique. Lorsque ces valeurs sont converties, elles reçoivent généralement des valeurs de 8 à 14 bits. Le facteur limitant est la qualité de l'électronique. Cela signifie qu'une image possède entre 256 et 16 384 valeurs. En général, les capteurs modernes sont dotés de convertisseurs analogique-numérique de 12 bits, qui affichent jusqu'à 4 096 niveaux de gris.

Diagramme illustrant le déplacement d'une charge électrique dans un capteur pour créer une valeur de pixel
Les étapes dans le capteur sont décrites de la charge électrique dans un pixel à la valeur numérique.

Résumé

Un pixel physique sur le plan focal d'un capteur absorbe les photons, qui deviennnent une charge électrique. Cette charge est convertie en nombre et placée dans une matrice ou un format de raster. La position et l'altitude du capteur au moment exact de l'exposition étant connues précisément, la localisation précise du pixel au sol est également connue.

Pour les images multispectrales et hyperspectrales, les valeurs de pixel dans chacun des canaux constituent un profil spectral pour cette localisation au sol. Chaque type de matériau au sol imagé (par exemple, le type de végétation, de sol ou de matériau de construction) possède un profil spectral unique, également appelé signatures spectrales. De nombreuses techniques permettent de normaliser les niveaux de gris des pixels dans l'image à des fins de cohérence et pour faciliter l'analyse des entités et matériaux au sol en fonction de l'analyse spectrale.

La valeur d'un pixel est une mesure de la radiation détectée associée à une localisation spécifique au sol. La télédétection utilise ces informations pour analyser une entité ou un phénomène à cette localisation. Une image numérique est bien plus qu'une belle image ; il s'agit d'une mesure radiométrique et photogrammétrique. La possibilité d'analyser les pixels permet aux analystes de télédétection de déduire d'importants types d'informations géographiques.

Pour plus d'informations, consultez les rubriques suivantes :

Rubriques connexes