Was ist ein Pixel?

Ein Grundelement, aus dem ein digitales Bild besteht, ist ein Pixel. Dieses Wort wurde von dem Ausdruck "picture element" (Bildelement) abgeleitet. Beim Arbeiten mit digitalen Bilddaten in GIS und Fernerkundung, ist es wichtig zu wissen, wie Pixels erstellt werden.

Basisformat von digitalen Bilddaten

Ein digitales Bild besteht aus einem rechteckigen Array aus Zahlen, aus denen ein Bild geformt wird. Es hat sowohl geometrische als auch radiometrische Eigenschaften. Jede Zahl im Array stellt ein Pixel dar. Ein Pixel in seiner Basisform ist eine Zahl in einem Array, die die Helligkeit und Farbe eines Bildes bei dessen Anzeige beschreibt. Das Datenformat wird auch als Raster- oder Bildformat bezeichnet. Die Physik dessen, woraus die Zahl im Array besteht, ist eine Funktion der Geometrie, des Wertes des Pixels und der Farbe, die es darstellt, und ist mit seiner Radiometrie verbunden. Es erfasst die Wechselwirkungen des Lichts und der Umgebung an einer bestimmten Position in der Geographie.

Grafische Darstellung der Werte in einem Bild
Ein digitales Bild ist ein Array aus Werten zur Darstellung der Helligkeit.

Wesen des Lichts

Licht verhält sich entweder als Wellenform oder als Teilchen. Licht besteht aus einem Strom aus Teilchen, die Photonen genannt werden. Diese Teilchen stammen von der Sonne. Auf ihrem Weg durch die Atmosphäre werden einige absorbiert und einige gestreut, wenn sie mit Luftteilchen, Wasserdampf und anderen Bestandteilen der Atmosphäre kollidieren. Dieser Photonenstrom, sowohl direkt von der Sonne als auch indirekt durch Streuung vom Himmelslicht, wird als Rückstrahlung oder Bestrahlungsstärke bezeichnet. Danach treffen die Photonen auf ein Zielobjekt auf der Erdoberfläche, von dem einige Photonen absorbiert und einige Photonen reflektiert werden. Die reflektierten Photonen werden zu einem Sensor abgestrahlt, andere werden durch die Atmosphäre durchgelassen, und wieder andere werden erneut absorbiert. Die Prozentsatz, der durch den Sensor gemessen wird, wird als Transmissionsgrad oder Durchlässigkeit bezeichnet.

Simulation der Sonne-Zielsensor-Interaktion
Dieses Diagramm zeigt die vereinfachte Sonne-Zielsensor-Interaktion, die durch einen Sensor beobachtet wird.

Interaktion des Lichts mit dem Sensor

Die Photonen, die die Vorderseite des Sensors erreichen, werden durch die Linse eingefangen und auf eine Brennebene an der Rückseite des Sensorkörpers fokussiert. Die Brennebene ist Sammlung physischer Zellen, zum Beispiel ein CCD-Array, die für die Photonen empfindlich sind. Dies sind die physischen Geräte, die das in den Sensor gelangende Licht messen und die Zahl, die das Pixel eines digitalen Bildes darstellt, erzeugen. Diese werden als "Brunnen" (engl. Wells) bezeichnet, da sie wie Eimer, die Photonen sammeln, wirken. Da sich Photonen wie Teilchen verhalten, haben die Eimer, in denen sie im Sensor gesammelt werden, zwei wichtige Eigenschaften. Die erste Eigenschaft ist die Fähigkeit, das Photon zu erfassen. Diese Eigenschaft wird als Quanteneffizienz oder Quantenausbeute bezeichnet. Wenn 100 Photonen auf den Eimer treffen und 40 davon gesammelt werden, dann besitzt das Array eine Quantenausbeute von 40 Prozent. Die andere wichtige Eigenschaft ist die der Brunnentiefe oder der Kapazität des Eimers. Ein Eimer könnte eine Kapazität von 60.000 Photonen haben. Wenn mehr als 60.000 Photonen durch den Eimer gesammelt wurden, läuft der Rest über. Manchmal quellen Sie über und gehen verloren. Manchmal quellen Sie in benachbarte Eimer über und verursachen einen Zustand, der als "Streulicht" (engl. Flare) oder Überstrahlung bezeichnet wird. Streulicht führt dazu, dass benachbarte Pixels allzu hell sind. Die meisten modernen Brennebenen besitzen jedoch Mechanismen, um diesen Effekt zu mindern. Da Sonnenlicht einen konstanten Strom darstellt, wird die Anzahl der Photonen, die auf das physische Array treffen, mit einem Gerät gesteuert, das als "Verschluss" (engl. Shutter) oder Blende bezeichnet wird. Dies ist ein physisches Gerät, das die Linse öffnet, um Photonen einzufangen, oder sie schließt, um das Eintreten der Photonen zu verhindern. Der Verschluss kann mechanisch oder elektrisch sein. In beiden Fällen ermöglicht er es dem Eimer, für einen kurzen Zeitraum, der als Integrationszeit oder Belichtungszeit bezeichnet wird, Fotos zu erfassen.

Diagramm eines Photoneneimers zur Erläuterung der Photonenabsorption
Analogie eines physischen Pixels auf der Brennebene als Photoneneimer.

Licht als elektromagnetische Welle

Sichtbares Licht wird farbig wahrgenommen. Dies ist eine Eigenschaft des Lichts, die durch das Wellenphänomen des Lichts als elektromagnetische Welle charakterisiert ist. Da Wellen eine Wellenlänge haben, können sie durch ihre Periodizität oder Frequenz beschrieben werden. Lichtwellen in verschiedenen Farben haben unterschiedliche Frequenzen und Wellenlängen. Lichtgeschwindigkeit, Frequenz und Wellenlänge stehen mathematisch zueinander in Beziehung. Dabei ist c die Lichtgeschwindigkeit, f die Frequenz des Lichts und ý die Wellenlänge.

c = fý

Bei Fernerkundungs- und GIS-Anwendungen ist die Lichtwellenlänge der bestimmende Aspekt der Farbe des Lichts. Beispiel: Licht mit Wellenlängen von 400 bis 500 Nanometern (nm) ist blaues Licht, 500 bis 600 nm ist grün, und 600 bis 700 nm ist rot. Dies ist der sichtbare Teil des elektromagnetischen Spektrums. Das elektromagnetische Spektrum ist offen und reicht von hochenergetischen Gammastrahlen bis zu niedrigenergetischen Radiowellen. Bei der Fernerkundung werden in der Regel die Anteile des sichtbaren Lichts und der Mikrowellen im Spektrum verwendet.

Diagramm des elektromagnetischen Lichtspektrums
Das Diagramm des elektromagnetischen Spektrums zeigt Farben des sichtbaren Lichts und den Rest des Spektrums.

Sensoren erfassen das Lichtspektrum

Die Eimer bzw. physischen Pixel in einem Sensor können auf unterschiedliche Lichtwellenlängen oder unterschiedliche Farben des Lichts empfindlich sein. Dies wird erreicht, indem das Licht gefiltert wird, bevor es durch das lichtempfindliche physische Pixel detektiert wird. Die gesamte Bildkette von der Beleuchtungsquelle bis zur Pixelauslesung von den Sensoren ist ein im Sensor integrierter Filter zum Zerlegen des Lichts entsprechend der Wellenlänge, um die Farben voneinander zu trennen.

Ein Bild besteht aus nur einem Datenband oder aus mehreren Datenbändern. Ein Einzelband-Bild enthält einen Wellenlängenbereich, den es erfasst hat. Wenn das Pixel einen breiten Anteil des sichtbaren Spektrums erfasst hat, wird es als panchromatisch bezeichnet. Wenn es mehrere Bänder enthält, wird es als multispektral bezeichnet. Wenn es viele, zum Beispiel 100 oder mehr, Bänder enthält, wird es als hyperspektral bezeichnet. Diese Bandbreiten sind schmaler als die panchromatischen Bänder und isolieren einen bestimmten Anteil des Spektrums. Jedes Band stellt einen einzelnen Anteil des Spektralbereichs des Lichts, das vom Ziel reflektiert wurde, dar.

In ArcGIS werden multispektrale Bilddaten mit dem RGB-Komposit-Renderer angezeigt, in dem jedes Raster-Band einem von drei Farbkanälen zugeordnet ist. Bei Bildern mit mehr als drei Raster-Bändern kann jedes dieser drei Bänder zum Anzeigen der Bilddaten verwendet werden. Die drei Farbkanäle sind Rot, Grün und Blau. Sie können jedes Raster-Band für jeden der Kanäle ersetzen.

Übliche Bilddaten in natürlichen Farben bestehen aus drei Bändern, in denen das blaue Band im blauen Kanal, das grüne Band im grünen Kanal und das rote Band im roten Kanal angezeigt wird. Jedes Pixel besitzt drei Werte, die den einzelnen Farben zugeordnet sind und zusammen eine Kompositfarbe ergeben.

Grafik eines Bildes in einem Renderer mit natürlichen Farben und einem Infrarotfarben-Renderer
Multispektralbilder können als natürliche Farbe und als Infrarotfarbe angezeigt werden, wenn die Bänder verfügbar sind.

Pixel stellen eine Position am Boden dar

Zusätzlich zu seinen Spektraleigenschaften stellt ein Pixel eine Bodenposition dar. Die folgende Abbildung veranschaulicht die Beziehung zwischen dem physischen Pixel im Sensor und der effektiven Fläche, die das Pixel am Boden darstellt. Diese Beziehung ist eine Funktion der Geometrie des Sensors und der geometrischen Aspekte davon in exakt dem Moment, an dem das Bild erfasst wurde. Die Größe dessen, was ein Pixel am Boden darstellt, wird als Bodenpixelgröße (Ground Sample Distance, GSD) bezeichnet. Im Sensor sind die Grenzen zwischen den Pixeln fest und diskret. Das Pixel am Boden ist jedoch wegen der Unschärfe und Streuung des Lichts durch die Atmosphäre und die Optik nicht klar definiert. Die Pixel neigen stattdessen dazu, einander am Boden zu überlappen. Die mathematische Funktion die beschreibt, was in einem physischen Pixel im Sensor entsteht, ist die Punktverteilungsfunktion. Wenn die Punktverteilungsfunktion groß ist, dann ist das entstehende Bild verschwommen. Wenn die Punktverteilungsfunktion klein ist, dann ist das Bild mit scharfen Kanten klar strukturiert.

Diagramm des physischen Pixels auf der Brennebene
Grundlegende Geometrie eines Pixels im Sensor und am Boden für eine Messbildkamera.

Speichern von Pixelwerten

Da Pixel Digitalnummernwerte sind, die im Computerspeicher gespeichert werden, sind die Werte separat und diskontinuierlich. Wenn Photonen erfasst werden, dann erzeugen sie eine elektrische Ladung, die ein analoges Signal bzw. ein kontinuierlicher Wert ist. Wenn das Pixel aus dem CCD-Array-Chip gelesen wird, wird es über einen Analog-Digital-Wandler in eine diskrete Zahl umgewandelt. Beim Umwandeln dieser Werte werden ihnen Werte, die in der Regel aus 8 bis 14 Informationsbits bestehen, zugewiesen. Der begrenzende Faktor ist die Qualität der Elektronik. Das bedeutet, dass ein Bild 256 bis 16.384 Werte enthalten kann. In der Regel besitzen moderne Sensoren 12-Bit-A/D-Wandler, die 4.096 Graustufen möglich machen.

Diagramm des Weges einer elektrischen Ladung in einem Sensor zum Erstellen eines Pixelwertes
Die Schritte im Sensor von der elektrischen Ladung in einem Pixel bis zum digitalen Wert.

Zusammenfassung

Ein physisches Pixel auf der Brennebene eines Sensors absorbiert Photonen, die zu einer elektrischen Ladung werden. Diese Ladung wird in eine Zahl umgewandelt und in einem Array oder Raster-Format abgelegt. Da die Position und Höhe des Sensors in exakt dem Moment der Belichtung genau bekannt ist, ist auch die exakte Position des Pixels am Boden bekannt.

Bei multispektralen und hyperspektralen Bildern bilden die Pixelwerte in jedem der Bänder ein Spektralprofil für diese Position am Boden. Jeder Stoff, der abgebildet wird, wie zum Beispiel Art der Vegetation, Boden oder Baumaterial, hat ein eindeutiges Spektralprofil, das auch als Spektralsignatur bezeichnet wird. Es gibt viele Verfahren zum Normalisieren der Pixelgraustufen im Bild, um Konsistenz zu gewährleisten und die Analyse von Objekten und Materialien am Boden basierend auf Spektralanalysen zu erleichtern.

Der Wert eines Pixels ist ein Maß der erfassten Strahlung und wird mit einer bestimmten Position am Boden verknüpft. Bei der Fernerkundung werden diese Informationen zum Analysieren eines Objektes oder Phänomens an dieser Position verwendet. Ein digitales Bild ist nicht nur hübsch anzuschauen, es ist eine radiometrische und photogrammetrische Messung. Dank der Möglichkeit, Pixel zu analysieren, können Fernerkundungsanalysten signifikante geographische Informationen ableiten.

Weitere Informationen finden Sie unter folgenden Themen:

Verwandte Themen