Mit der Image Analyst-Lizenz verfügbar.
Fernerkundungsbilddaten werden per Satellit, Flugzeug oder Drohnenplattform gesammelt. Die Fernerkundungsbilddaten sind nicht alle gleich und werden im Allgemeinen für bestimmte Projektanforderungen gesammelt. Die Bedingungen des jeweiligen Projekts steuern die Anforderungen an die Bilddatensammlung und -verarbeitung, nach denen die Typen der Bilddaten in Kategorien eingeteilt werden. Die erste Unterscheidungsebene umfasst den in den Bilddaten enthaltenen Dateninhalt und die geometrischen Merkmale der Bilddaten. Unabhängig davon, ob die Bilddaten visuell analysiert oder mit Verarbeitungstechniken für Fernerkundungsbilder verarbeitet werden, wird anhand von Faktoren wie der minimalen Kartenerstellungseinheit, der spektralen Bandbreite und Platzierung sowie der Geopositionsgenauigkeit die Eignung bestimmter Bilddatentypen für die Projektziele und -anforderungen bestimmt.
Dateninhalt in Bilddaten
Die Art der in den Bilddaten enthalten Informationen hängt in erster Linie von drei Auflösungstypen ab, nämlich räumlich, spektral und zeitlich, die sich alle auf die minimale Kartenerstellungseinheit eines Projekts auswirken.
Räumliche Auflösung
Die räumliche Auflösung bezieht sich auf die Größe der Pixel (Bildelemente) am Boden, die das Bild ausmachen. Sie wird häufig als Entfernung für Bodenpixelgröße (Ground Sample Distance, GSD) bezeichnet. Hierbei handelt es sich um eine Funktion sowohl der Sensorleistung als auch der Flughöhe des Sensors. Mit der GSD werden die räumliche Detaillierungsebene und die im Bild sichtbaren Feature-Typen festgelegt. Generell gilt: Je kleiner die Pixelgröße, desto größer die im Bild enthaltenen Details. Kleine Pixelgrößen, z. B. 3 Zoll oder 10 Zentimeter, führen zu sehr großen Dateien, die möglicherweise schwer zu verarbeiten, zu speichern und zu verwalten sind. Verfahren zur Feature-Extraktion funktionieren bei der einen GSD möglicherweise gut, schlagen jedoch bei anderen GSDs fehl. Auch dieser Punkt muss berücksichtigt werden. Eine kleine Pixelgröße eignet sich nicht immer für ein bestimmtes Projekt, beispielsweise für die Klassifizierung der Landbedeckung für ein Bundesland, einen Kanton oder ein Land. Die räumliche Auflösung ist eng mit der minimalen Kartenerstellungseinheit eines Projekts verknüpft, da eine ausreichende Anzahl Pixel benötigt wird, um ein Feature zu identifizieren.
Spektrale Auflösung
Die spektrale Auflösung wird durch die Sensor- und Messwertanteile des elektromagnetischen Spektrums bestimmt. Die spektralen Eigenschaften eines Sensors bestehen aus der Anzahl der Imaging-Bänder, der Wellenlängen der Bänder, der spektralen Breite der Bänder und dem Signal-Rausch-Verhältnis. Die spektrale Auflösung bezieht sich auf die Fähigkeit des Sensors, die spektrale Signatur eines Features zu messen. Diese Eigenschaften legen den Feature-Typ und die Phänomene fest, die erkannt und zugeordnet werden können. Multispektrale Sensoren sammeln vier oder mehr nicht überlappende Bänder, die ziemlich breit (50 bis 80 Nanometer) sind und so platziert werden, dass umfangreiche Feature-Kategorien unterschieden werden können, beispielsweise Vegetation, Boden, Wasser und vom Menschen gemachte Features. Hyperspektrale Sensoren sammeln viele (mehr als 100) enge Bänder (5 bis 10 Nanometer), die strategisch platziert sind, um bestimmte Anteile der spektralen Signatur eines Features zu messen. Hyperspektrale Sensoren liefern ausführlichere Informationen, beispielsweise Vegetationsarten, Wasserqualität oder Eigenschaften eines Materials. Hyperspektrale Sensoren sind weniger häufig als multispektrale Sensoren, da sie in der Regel mit einem Flugzeug bereitgestellt werden, teurer sind und besondere Fachkenntnisse beim Bedienen, Verarbeiten und Analysieren der Daten benötigt werden.
Viele Sensoren arbeiten im nicht sichtbaren Teil des Spektrums, z. B. thermische Infrarotsensoren. Diese Sensoren sind elektro-optisch, sammeln jedoch einen Teil des Spektrums, mit dem ausgestrahlte Wärme anstelle von reflektierter Sonnenenergie dargestellt wird. Geometrisch sind diese Sensoren vergleichbar mit anderen elektro-optischen Bilddaten. Sie vermessen jedoch Bereiche des elektromagnetischen Spektrums, die für das Auge nicht sichtbar sind.
Es gibt auch aktive Sensoren, z. B. Radar, die eine eigene Beleuchtung aufweisen. Diese Sensoren arbeiten mit Frequenzen, die deutlich länger sind als ihre elektro-optischen Entsprechungen und Bilddaten mit Geometrien bereitstellen, die auch von der perspektivischen Geometrie abweichen.
Zeitliche Auflösung
Die zeitliche Auflösung bezieht sich auf die Häufigkeit der Abdeckung einer geographischen Position, in der Regel durch eine Klasse von Satellitensensorplattformen. Sie wird durch die Anzahl der Satellitenüberflüge, orbitale Mechanismen und die Mobilität der Sensorplattform bestimmt. Bei Satelliten, die vertikal nach unten zur Erde weisen, beispielsweise die Landsat-Reihe, beträgt die zeitliche Auflösung 16 Tage zur Abdeckung der gleichen geographischen Position. Ausnahmen sind geostationäre Satelliten, z. B. Wettersatelliten, mit grober räumlicher Auflösung. Satelliten mit höherer Auflösung haben aufgrund der Bereitstellung mehrerer ähnlicher Sensorsysteme in ergänzenden Umlaufbahnen und aufgrund der Fähigkeit, den Sensor Off-Nadir aus einem vertikalen Blickpunkt auszurichten, eine höhere zeitliche Frequenz. Während die Off-Nadir-Anzeigeergebnisse zu einer höheren zeitlichen Auflösung führen und vielleicht sogar eine tägliche Abdeckung der gleichen geographischen Position erzielen, sind die Bilddaten schräg und weisen eine größere GSD auf.
Seitdem sich die Drohnentechnologie bei der Bildgebung durchgesetzt hat, hat sich die zeitliche Auflösung drastisch erhöht. Drohnen können eine Position täglich, mehrmals täglich oder dauerhaft überwachen. Diese Technologie hat viele Typen von Überwachungsanwendungen ermöglicht, die zuvor nicht denkbar waren.
Hinweis:
Die Ausdehnung der Abdeckung eines Imaging-Systems für die Fernerkundung ist ein weiterer wichtiger Faktor bei der Berücksichtigung geeigneter Bilddaten für ein Projekt. Die Imaging-Ausdehnung bezieht sich auf den Footprint, also die Abdeckung am Boden, des Sensors. Satellitensensoren haben einen sehr großen Footprint, im Allgemeinen 10 bis 200 Kilometer oder mehr, während Luftbildsensoren einen deutlich kleineren Footprint mit mehreren hundert Metern pro Bild aufweisen. Der genaue Footprint hängt vom Sensor und der Flughöhe ab. Drohnen haben einen kleinen Footprint im zweistelligen Meterbereich.
Geometrische Merkmale der Bilddaten
Für GIS-Zwecke werden die Bilddaten basierend auf der Geometrie in sechs Kategorien unterteilt. Jede Unterteilung wirkt sich auf die sinnvolle Nutzung des Bildes für bestimmte Anwendungen oder Praktiken aus. Sie wirkt sich auch auf die Art und Weise aus, in der Bilddaten in der Anwendung bearbeitet werden, um optimale Ergebnisse zu erzielen. Einige Typen von Bilddaten lassen sich am besten mit dem Schwerpunkt auf dem Bild handhaben, andere müssen eher mit Schwerpunkt auf der Karte bearbeitet werden. Beispiel: Vertikale Bilddaten und Grundkartenbilddaten müssen mit Schwerpunkt auf der Karte behandelt werden. Schrägluft-Bilddaten und Motion Imagery werden im allgemeinen in einem Modus mit Schwerpunkt auf dem Bild behandelt, möglicherweise mit der Option, abhängig von der Schräge zum Kartenmodus zu wechseln. Stereobilddaten erfordern eine Bearbeitung im Modus mit Schwerpunkt auf dem Bild in einer dedizierten Stereo-Ansicht. Schließlich besitzen Grafiken keine geeigneten geometrischen Positionierungsinformationen und müssen in einem separaten Pop-up-Fenster verarbeitet werden. Jeder Bilddatentyp weist durch die Geometrie verursachte Nutzungsmöglichkeiten und Beschränkungen auf:
- Bilddaten-Grundkarte: ein verarbeitetes, orthorektifiziertes Bild oder eine Sammlung von Bildkacheln mit der Integrität einer Karte, die als Referenz verwendet wird. Bilddaten-Grundkarten werden häufig als Hintergrund für den Kontext von GIS-Daten verwendet und erhalten oftmals einen Farbabgleich für eine optimale visuelle Darstellung. Daher sind sie möglicherweise nicht für eine automatisierte Feature-Extraktion geeignet.
- Vertikale Bilddaten: Bilddaten, die für Kartenerstellungszwecke gesammelt werden und verknüpfte Metadaten zur Geopositionierung aufweisen. Ihr Hauptzweck besteht darin, geometrisch exakte Grundkarten sowie eine automatisierte oder halbautomatisierte Feature-Extraktion zu erzeugen.
- Schrägluft-Bilddaten: Bilddaten, die mit Off-Nadir-Betrachtungswinkeln gesammelt werden, wodurch die Daten nicht für eine präzise Kartenerstellung geeignet, aber sehr hilfreich für die visuelle Interpretation und das Situationsbewusstsein sind. Bilddaten, die in Überwachungsanwendungen zum Einsatz kommen, sind häufig Schrägluft-Bilddaten. Sie weisen Metadaten zur Geopositionierung auf.
- Stereo-Bilddaten: überlappende Bilddaten, die speziell für die Stereo-Nutzung gesammelt werden und präzise Metadaten zur Geopositionierung aufweisen. Stereo-Bilddaten werden in erster Linie für eine genaue 3D-Feature-Zusammenstellung zum Erstellen und Aktualisieren von Land- und GIS-Layern verwendet.
- Bewegte Bilddaten: Bilddaten mit mehreren Videobildern, die Bewegungen bei 1 bis 120 Hertz erfassen, z. B. Videodaten. Bei diesen Bilddaten sind in der Regel Metadaten zur Georeferenzierung in den digitalen Videodatenstrom integriert.
- Bild: ein Bild, das keine oder ungeeignete Metadaten zur Geopositionierung aufweist. Möglicherweise liegen Intensitätsinformationen vor, die einen bestimmten Grad an radiometrischer Integrität aufweisen. Diese Bilddaten sind häufig historischer Art oder befinden sich in unterstützenden Referenzvermessungen des Bodens.
Grundkartenbilddaten
Diese Satellitenbildkarte von San Francisco stammt aus der Esri Bilddaten-Grundkarte. Sie besteht aus mehreren orthorektifizierten Bildern, für die ein Farbabgleich und eine Mosaikierung entlang der Nahtlinien durchgeführt wurden. Das ist am deutlichsten erkennbar, wenn Sie die Brücke in der rechten unteren Ecke der Szene betrachten. Die Brücke ist an der Kante zwischen Wasser und Land nicht verbunden. Der Versatz wird durch die Reliefverzerrung im Originalbild verursacht, die bei der Höhenmatrix, die für die Rektifizierung verwendet wurde, nicht berücksichtigt wurde. Grundkarten sind sehr genau, allerdings nur für Features, die auf einer ebenen Erdoberfläche liegen. Gebäude, Brücken und andere hohe Features sind nur an ihrer Basis genau, wo sie auf den Boden treffen. Die Radiometrie der Grundkarte wurde außerdem stark verändert, um ein ästhetisch ansprechendes Bild zu erhalten. Beim Versuch, Feature-Daten aus Grundkarten zu extrahieren, müssen Sie Vorsicht walten lassen. Grundkarten dienen generell als Hintergrund für GIS-Layer. Wenn sie aktuell sind, stellen sie außerdem eine hervorragende Quelle für die manuelle Extraktion von Features für die Erstellung und Aktualisierung von Flurstücken dar. Es ist allerdings nicht selten der Fall, dass Grundkarten veraltet sind, da für ihre Erstellung viel Zeit und Aufwand erforderlich ist.
Vertikale Bilddaten
Vertikale Bilddaten werden in der Regel für Kartenerstellungszwecke gesammelt. Sie bieten deutliche Ansichten des Terrains, weisen eine hervorragende geometrische Integrität auf und können problemlos orthorektifiziert werden. Wenn vertikale Bilddaten keinen offensichtlichen Farbabgleich aufweisen, sind sie besonders sinnvoll für die automatisierte Feature-Klassifizierung und Extraktion basierend auf spektralen Eigenschaften. Vertikale Bilddaten besitzen auch eine einheitliche Pixelgröße oder GSD über das gesamte Bild hinweg sowie über eine einheitliche Skalierung. Vertikale Bilddaten werden häufig als Datenquelle für Grundkarten verwendet.
Schrägluft-Bilddaten
Schrägluft-Bilddaten werden häufig für die Situationsbewusstheit und Analyse verwendet. Dadurch, dass sie schräg aus der Luft aufgenommen wurden, lassen sich leichter Features sammeln. Außerdem bieten die Daten intuitivere Ansichten der gewünschten Region oder Features. Abhängig vom Sensor und der Entfernung zum Boden können Skalierung und GSD über das ganze Bild deutlich variieren. Schrägluft-Bilddaten lassen sich am besten im Perspektivmodus in der Anwendung für die Bildraumanalyse in Image Analyst anzeigen und analysieren.
Stereobilddaten
Stereobilddaten werden für verschiedene Zwecke gesammelt. Sie werden am häufigsten zur Extraktion von Terrainmodellen, zum Erstellen von Footprints und Dächern sowie für das Vegetationsmanagement, z. B. die Forstwirtschaft, verwendet. Sie dienen in erster Linie der 3D-Feature-Extraktion sowie der Identifizierung und Interpretation von Features, die sich schwer oder gar nicht monoskopisch betrachten lassen, z. B. der Boden unter einem Blätterdach. Stereobilddaten werden in der Anwendung für die Stereokartenerstellung in Image Analyst angezeigt, analysiert und für die Sammlung von 3D-Features verwendet.
Motion Imagery
Bewegte Bilddaten werden zumeist für die Situationsanalyse gesammelt. Eine der gängigsten Formen ist Full Motion Video (FMV), das in Echtzeit und für forensische Anwendungen eingesetzt wird. FMV bezeichnet die Kombination eines Video-Streams und der zugehörigen Metadaten in einer Videodatei, sodass das Video einen räumlichen Bezug erhält. Die Sensorsysteme sammeln Kamerarichtungsinformationen, Daten zur Plattformposition und -stellung sowie weitere Daten, die im Video-Stream codiert werden, sodass jedes Videobild mit Geopositionsinformationen verknüpft ist und auf der Karte angezeigt werden kann. Diese Funktionalität ermöglicht die bidirektionale Sammlung und Anzeige von Feature-Daten zwischen dem FMV-Videoplayer und der Kartenansicht. So können Sie z. B. im Live-Streaming-Modus des Videoplayers Features sammeln und diese zusammen mit anderen GIS-Layern auf der Karte anzeigen.
FMV verwendet die Metadaten, um Koordinaten nahtlos zwischen dem Videobildraum und dem Kartenraum zu konvertieren, ähnlich der Transformation von unbewegten Bildern durch das Bildkoordinatensystem (Image Coordinate System, ICS). Auf diese Weise wird die Grundlage für die Interpretation von Videodaten im Gesamtkontext aller anderen räumlichen Daten und Informationen in Ihrem GIS geschaffen. Beispielsweise können Sie den Videobild-Footprint, den Bildmittelpunkt und die Position der Aufnahmeplattform während der Wiedergabe des Videos in der Kartenansicht anzeigen. Darüber hinaus können die GIS-Layer angezeigt werden, z. B. Gebäude mit IDs, GeoFences und andere relevante Informationen.
Zusammenfassung
Es ist wichtig, die Zielsetzungen und Anforderungen Ihrer Projekte zu kennen, damit Sie den geeigneten Bilddatentyp sammeln können. Die Eignung eines bestimmten Bilddatentyps hängt vom Dateninhalt und den geometrischen Eigenschaften der Bilddaten ab. ArcGIS Pro bearbeitet die unterschiedlichen Bilddatentypen so, dass jeweils die in den Bilddaten enthaltenen Informationen als auch die Geometrie der Bilddaten optimal genutzt werden, und zwar bei der Anzeige, der Analyse und in Nutzungsumgebungen.
Die Eigenschaften der Bilddaten, ihre Eignung für einen bestimmten Anwendungstyp und Informationen darüber, wie die Bildtypen in ArcGIS Image Analyst behandelt werden, sind in der nachstehenden Tabelle zusammengefasst.
Bildtyp | Verwenden | Verbreitung | ArcGIS Pro-Ansicht |
---|---|---|---|
Grundkartenbilddaten | Kontext | Moderat | Kartenansicht |
Vertikale Bilddaten | Kartenerstellung und -aktualisierung | Moderat | Kartenansicht |
Schrägluft-Bilddaten | Situationsbewusstsein | High | Kartenansicht im Perspektivmodus |
Stereobilddaten | Genaue Kartenerstellung in 3D | Niedrig bis mittel | Stereokartenansicht |
Motion Imagery | Situationsbewusstsein | Niedrig bis mittel | Mit der Kartenansicht verknüpfter Videoplayer |
Bild | Referenz | Niedrig | Pop-up |
Wenn Sie die Eignung verschiedener Bilddatentypen für verschiedene Anwendungstypen richtig einsetzen, erzielen Sie optimale Ergebnisse und erfüllen viele Projektanforderungen in betrieblichen, akademischen und Forschungsumgebungen.