Options d’ajustement pour le Reality Mapping des images aériennes numériques

Disponible pour une organisation ArcGIS disposant de la licence ArcGIS Reality.

Les paramètres utilisés dans le calcul de l’ajustement de bloc sont définis dans la fenêtre Adjust (Ajuster). Les options d’ajustement disponibles dépendent du type d’espace de travail défini lorsque vous avez configuré votre projet Reality Mapping. Par exemple, la triangulation d’images est effectuée pour les images aériennes.

Ajustement de bloc

Les paramètres d’ajustement de bloc propres aux images aériennes numériques sont décrits ci-dessous. Ces paramètres sont utilisés pendant le calcul de points de rattachement ou de points de contrôle au sol (PCS) et pendant le calcul de l’ajustement de bloc.

Pour plus d’informations sur les options d’ajustement des images de drone, reportez-vous à la section Options d’ajustement pour le Reality Mapping des images de drone.

Effectuer le calibrage de la caméra

Le calibrage automatique de la caméra calcule et améliore les paramètres géométriques de la caméra, notamment l’orientation intérieure et la distorsion de l’objectif, tout en déterminant l’orientation de l’image et les coordonnées terrestres de l’image. Si la caméra n’a pas été calibrée, sélectionnez les options ci-dessous afin d’améliorer la qualité globale et d’optimiser la précision de l’ajustement de bloc. Vous pouvez calibrer votre caméra pendant l’ajustement de bloc pour optimiser la précision des paramètres de la caméra. La plupart des caméras numériques haute qualité ont été calibrées, auquel cas ces options doivent être désélectionnées. Il s’agit de l’option par défaut.

  • Focal Length (Distance focale) : affine la distance focale de l’objectif de la caméra
  • Principal Point (Point principal) : affine le point principal d’autocollimation
  • K1,K2,K3 : affine les coefficients de distorsion radiale
  • P1,P2 : affine les coefficients de distorsion tangentielle
  • Fix Image Location for High Accuracy GPS (Corriger la localisation des images pour les GPS haute précision) : cette option n’est utilisée que pour les images acquises avec des GPS différentiels haute précision, tels que les GPS cinématiques en temps réel (RTK) et les GPS cinématiques de post-traitement (PPK). Si cette option est sélectionnée, le processus n’ajuste que les paramètres d’orientation des images et ne touche pas aux mesures GPS. Les points de contrôle au sol (GCP) ne sont pas requis lorsque cette option est activée.

Pour plus d’informations sur les options de calibrage, reportez-vous à la rubrique Structure de la table des caméras.

Remarque :
Nous vous recommandons de sélectionner une superposition d’images aériennes plus élevée sur la bande et entre les bandes pour obtenir un meilleur ajustement de bloc et de meilleurs résultats.

Seuil de points d’erreur (en pixels)

Les points de rattachement qui ont une erreur résiduelle supérieure à la valeur Blunder Point Threshold (Seuil de points d’erreur) ne sont pas utilisés pour le calcul de l’ajustement. Le résiduel est mesuré en pixels.

Paramètre de précision antérieur

Le paramètre de précision antérieur permet de spécifier l’exactitude des données d’orientation à partir de systèmes de mesure POS (Position Orientation System) comme Applanix. Des POS différents peuvent fournir des informations d’exactitude différentes. Par exemple, un POS peut assurer uniquement l’exactitude positionnelle en sortie, tandis qu’un autre peut assurer l’exactitude sur les axes s, y et z. Par conséquent, vous n’avez qu’à saisir les informations d’exactitude disponibles. Le paramètre par défaut de cette catégorie est null.

Les plateformes numériques aéroportées mesurent l’orientation extérieure à l’aide d’un POS. Vous pouvez saisir l’exactitude mesurée de ces paramètres afin d’améliorer la qualité de l’ajustement.

Localisation de l’image (mètres)Description

x

Précision des coordonnées x fournies par le système POS aéroporté. Les unités doivent correspondre à la valeur PerspectiveX.

Y

Précision des coordonnées y fournies par le système POS aéroporté. Les unités doivent correspondre à la valeur PerspectiveY.

Z

Précision des coordonnées z fournies par le système POS aéroporté. Les unités doivent correspondre à la valeur PerspectiveZ.

plane

Précision des coordonnées x,y fournies par le système POS aéroporté. Les unités doivent correspondre à la valeur PerspectiveX ou PerspectiveY.

Position

Précision des coordonnées x,y,z fournies par le système POS aéroporté. Les unités doivent correspondre à la valeur PerspectiveX, PerspectiveY ou PerspectiveZ.

Attitude (degrés)Description

Omega

Précision de l’angle omega fourni par le système POS aéroporté. Les unités sont les degrés décimaux.

Phi

Précision de l’angle phi fourni par le système POS aéroporté. Les unités sont les degrés décimaux.

Kappa

Précision de l’angle kappa fourni par le système POS aéroporté. Les unités sont les degrés décimaux.

Paramètres GNSS

Les paramètres du système de positionnement par satellites (GNSS) offrent des options permettant de calibrer le décalage entre l’antenne GPS, la caméra et la translation globale du signal GPS, sous forme d’ajustement par lot. Pour que les paramètres GNSS puissent être utilisés, des points de contrôle au sol doivent être inclus dans l’ajustement.

Pour certaines acquisitions aéroportées, l’antenne GPS est localisée séparément du système de la caméra. Les options suivantes vous permettent de corriger les décalages dans les mesures de position dus au décalage physique entre la caméra et l’antenne GPS :

  • Compute Antenna Offset (Calculer le décalage de l’antenne) : corrige les erreurs de position du capteur en calculant le décalage physique entre une caméra et l’antenne GPS aéroportée.
  • Compute Shift (Calculer la translation) : corrige la dérive de l’instrument dans le signal GPS.

Calculer l’écart type a posteriori pour les images et les points de solution

Les options suivantes permettent de calculer l’écart type pour les paramètres d’orientation extérieure et les coordonnées de point de solution de chaque image.

  • Compute Posterior Standard Deviation for Images (Calculer l’écart type a posteriori pour les images) : l’écart type a posteriori des points de solution après l’ajustement est calculé. Les valeurs d’écart type calculées sont stockées dans la table Solution.
  • Compute Posterior Standard Deviation for Solution Points (Calculer l’écart type a posteriori pour les points de solution) : l’écart type a posteriori de la localisation et de l’orientation de chaque image après l’ajustement est calculé. Les valeurs d’écart type calculées sont stockées dans la table Solution Points (Points de solution).

Reprojeter les points de rattachement

Une partie du traitement d’ajustement consiste à calculer et afficher chaque point de rattachement à sa localisation correcte sur la carte 2D. Cette étape est facultative et ne prend en charge que l’analyse visuelle des points de rattachement avec la vue de la carte 2D. Suite à l’ajustement, l’option Reproject Tie Points (Reprojeter les points de rattachement) du menu déroulant Manage Tie Poins (Gérer les points de rattachement) doit être utilisée.

Remarque :

Si vous travaillez sur des projets volumineux comprenant plus de 1000 images, cette étape peut être ignorée pour réduire la durée du traitement de l’ajustement, sans effet négatif sur la qualité de ce dernier.

Appariement des points de rattachement

Les points de rattachement représentent des objets ou des localisations courants dans les zones de superposition entre des images adjacentes. Ces points permettent d’améliorer la précision géométrique dans l’ajustement de bloc. La catégorie Tie Point Matching (Appariement des points de rattachement) de l’outil Adjust (Ajuster) contient des options pour la prise en charge du calcul automatique des points de rattachement à partir des images qui se superposent. Cochez la case Full Frame Pairwise Matching (Appariement deux par deux pleine image) pour activer le calcul automatique des points de rattachement. Pour obtenir les meilleurs résultats possibles, les conditions suivantes doivent être remplies :

  • La topographie représentée est hautement variable, par exemple, un terrain montagneux présentant d’importantes variations de hauteur.
  • Les pourcentages de recouvrement longitudinal et latéral entre les images sont inférieurs à la valeur recommandée.
  • La précision des paramètres d’orientation initiale des images et des coordonnées du centre de la projection est faible.
  • Les images contiennent des angles obliques élevés.

Précision de la localisation de l’image

La précision positionnelle inhérente aux images dépend de la géométrie de visibilité du capteur, du type de capteur et du niveau de traitement. La précision de localisation est généralement décrite comme faisant partie intégrante des images à livrer. Choisissez le mot-clé qui décrit le mieux la précision des images.

Les valeurs consistent en trois paramètres, exploités par l’algorithme de calcul des points de rattachement pour déterminer le nombre d’images dans le voisinage à utiliser. Par exemple, si la précision est définie sur High (Élevée), l’algorithme utilise un voisinage plus restreint pour identifier les entités correspondantes dans les images superposées.

ParamètreDescription

Faible

Les images sont d’une précision médiocre et comportent des erreurs importantes en matière d’orientation du capteur (rotation supérieure à 5 degrés). L’algorithme SIFT (Scale Invariant Feature Transform), qui offre une plage de recherche en pixels étendue, est utilisé pour le calcul d’appariement des points.

Moyenne

Les images sont d’une précision moyenne et comportent de petites erreurs en matière d’orientation du capteur (rotation inférieure à 5 degrés). L’algorithme Harris est utilisé avec une plage de recherche d’environ 800 pixels pour le calcul d’appariement des points. Il s’agit de l’option par défaut.

Elevée

Les images sont d’une précision élevée et comportent de petites erreurs en matière d’orientation du capteur. Ce paramètre convient aux images satellite et aux images aériennes qui ont été fournies avec des données d’orientation extérieures. L’algorithme Harris est utilisé avec une plage de recherche peu étendue pour le calcul d’appariement des points.

Similarité des points de rattachement

Choisissez le niveau de tolérance pour les points de rattachement correspondants entre les paires d’images.

ParamètreDescription

Faible

La tolérance de similarité pour les paires d’images correspondantes est faible. Ce paramètre génère le plus grand nombre de paires correspondantes, mais certaines des correspondances peuvent compter un taux d’erreurs plus important.

Moyenne

La tolérance de similarité pour les paires correspondantes est moyenne. Il s’agit de l’option par défaut.

Elevée

La tolérance de similarité pour les paires correspondantes est élevée. Ce paramètre génère le plus petit nombre de paires correspondantes, mais chaque paire compte un taux d’erreurs plus faible.

Densité des points de rattachement

Sélectionnez le nombre relatif de points de rattachement entre les paires d’images à calculer.

ParamètreDescription

Faible

Le nombre de points de rattachement le plus petit est produit.

Moyenne

Un nombre moyen de points de rattachement est produit. Il s’agit de l’option par défaut.

Elevée

Un nombre élevé de points de rattachement est produit.

Distribution des points de rattachement

Déterminez si les points en sortie présentent une distribution régulière ou aléatoire.

  • Random (Aléatoire) : les points sont générés de façon aléatoire. Les points générés de manière aléatoire sont mieux adaptés aux zones superposées avec des formes irrégulières. Il s’agit de l’option par défaut.
  • Regular (Régulier) : les points sont générés selon un motif fixe.

Masquer les entités surfaciques

Utilisez une classe d’entités surfaciques pour exclure les surfaces que vous ne souhaitez pas intégrer dans le calcul des points de rattachement.

Dans la table attributaire de la classe d’entités, le champ mask contrôle l’inclusion ou l’exclusion de surfaces pour calculer les points de rattachement. La valeur 1 indique que les surfaces définies par les polygones (à l’intérieur) sont exclues du calcul. La valeur 2 indique que surfaces définies par les polygones (à l’intérieur) sont incluses dans le calcul, tandis que les surfaces situées à l’extérieur des polygones sont exclues.

Bibliographie

Lowe, David G. (1999). « Object recognition from local scale-invariant features ». Proceedings of the International Conference on Computer Vision. Vol. 2. pp. 1150–1157.

Chris Harris et Mike Stephens (1988). « A Combined Corner and Edge Detector ». Alvey Vision Conference. Vol. 15.

Rubriques connexes