Comparaison des outils de superposition classiques aux outils de superposition deux par deux

Les outils de superposition classiques (Zone tampon, Découper, Fusionner, Effacer, Intégrer et Intersecter) et les outils de superposition deux par deux (Zone tampon deux par deux, Découpage deux par deux, Fusion deux par deux, Effacement deux par deux, Intégration deux par deux et Intersection deux par deux) sont conçus pour optimiser les performances et la précision des analyses lors du traitement de jeux de données très volumineux et complexes par un seul ordinateur. Malgré la similarité de ces outils, il est important d’examiner leurs nombreuses différences en termes de fonctionnalités et de performances avant de choisir celui que vous utiliserez dans votre processus. Par ailleurs, d’autres éléments affectant tous les outils de géotraitement impactent différemment la précision de la sortie et les performances d’analyse de chaque outil.

Comparaison des outils

Plusieurs outils du jeu d’outils Superposition deux par deux constituent une solution de rechange aux outils de superposition classiques.

Zone tampon deux par deux et Zone tampon

Les points de comparaison entre les outils Zone tampon deux par deux et Zone tampon sont les suivants :

  • Les deux outils utilisent le traitement parallèle. Dans le cas de l’outil Zone tampon deux par deux, le traitement parallèle est activé par défaut. Dans le cas de l’outil Zone tampon, il peut être activé dans l’environnement Facteur de traitement parallèle.
  • Les entités en sortie de l’outil Zone tampon deux par deux sont moins lisses que les entités en sortie créées par l’outil Zone tampon par défaut.
  • L’outil Zone tampon deux par deux permet de contrôler le lissage des entités en sortie de zone tampon. Reportez-vous à la documentation de l’outil pour plus d’informations sur le paramètre Maximum Offset Deviation (Écart de décalage maximal).
  • L’outil Zone tampon offre des options de sortie pour la zone tampon telles que le type de côté et le type d’extrémité.

Découpage deux par deux et Découper

  • Les deux outils utilisent le traitement parallèle. Dans le cas de l’outil Découpage deux par deux, le traitement parallèle est activé par défaut. Dans le cas de l’outil Découper, il peut être activé dans l’environnement Facteur de traitement parallèle.

Fusion deux par deux et Fusionner

  • Ces outils ayant des sorties similaires, ils peuvent être utilisés indifféremment.
  • L’outil Fusion deux par deux utilise le traitement parallèle par défaut. L’outil Fusionner ne dispose pas de fonctionnalités de traitement parallèle.

Effacement deux par deux et Effacer

  • Ces outils ayant des sorties similaires, ils peuvent être utilisés indifféremment.
  • Les deux outils utilisent le traitement parallèle. Dans le cas de l’outil Effacement deux par deux, le traitement parallèle est activé par défaut. Dans le cas de l’outil Effacer, il peut être activé dans l’environnement Facteur de traitement parallèle.

Intégration deux par deux et Intégrer

  • L’outil Intégration deux par deux utilise le traitement parallèle par défaut.
  • La tolérance interne de l’outil Intégration deux par deux est légèrement plus grande que celle de l’outil Intégrer, en raison des différences entre les moteurs d’intégration sous-jacents.

Intersection deux par deux et Intersecter

  • Ces outils produisent des sorties radicalement différentes. Il est impossible de les utiliser indifféremment sans une évaluation préalable de votre processus et des modifications à apporter pour l’adapter à chaque sortie. Pour plus d’informations, reportez-vous à la rubrique Fonctionnement de l’outil Intersection deux par deux.
  • Les deux outils utilisent le traitement parallèle. Dans le cas de l’outil Intersection deux par deux, le traitement parallèle est activé par défaut. Dans le cas de l’outil Intersecter, il peut être activé dans l’environnement Facteur de traitement parallèle.

Considérations sur les fonctionnalités et les performances de tous les outils d’analyse

Au moment de décider lequel de ces outils complémentaires utiliser dans votre processus, il arrive souvent que les deux soient acceptables. Toutefois, les informations ci-dessous peuvent vous aider à comprendre les différences entre chaque outil et à affiner votre choix.

Considérations sur les fonctionnalités

Le premier point à considérer dans le choix d’un outil consiste à déterminer si sa sortie répond aux besoins de votre projet. Certains des outils comparés créent des sorties équivalentes, et d’autres non. Les principales différences entre les sorties des outils ont été évoquées dans la section précédente. Reportez-vous à la documentation de chaque outil pour obtenir plus de détails qui vous permettront de comparer les outils à utiliser.

Dans tous les outils, il faut éviter d’effectuer une projection à la volée en cours d’analyse. La projection à la volée est utilisée lorsque les entrées de l’outil ne partagent pas la même référence spatiale. Elle est également utilisée lors du paramétrage d’environnements de géotraitement modifiant le système de coordonnées en sortie (Output Coordinate System [Système de coordonnées en sortie], XY Tolerance [Tolérance XY], XY Resolution [Résolution XY], etc.). La projection à la volée risque toutefois de générer des anomalies dues à un alignement incorrect des données entre les couches. Reportez-vous à la rubrique Systèmes de coordonnées et projections pour plus d’informations.

Les paramètres XY Resolution (Résolution XY) et XY Tolerance (Tolérance XY) ont un impact fonctionnel sur les sorties générées par tous les outils. Reportez-vous à la rubrique Principes de base des classes d’entités pour plus d’informations. Un travail considérable sur plusieurs décennies a permis de déterminer les valeurs adéquates des paramètres XY Resolution (Résolution XY) et XY Tolerance (Tolérance XY) à utiliser pour obtenir un résultat d’une précision optimale lors du traitement de données dans la référence spatiale qui leur a été attribuée. Il est recommandé d’utiliser les valeurs par défaut des paramètres XY Resolution (Résolution XY) et XY Tolerance (Tolérance XY) pour la référence spatiale des données en entrée, et de ne pas les modifier pendant la génération des données, ou dans les environnements de géotraitement au cours de l’analyse. Pour éviter de fausser les résultats de l’analyse, il est également conseillé de ne pas utiliser le paramètre XY Tolerance (Tolérance XY) de l’outil.

  • Chaque outil peut implémenter un paramètre XY Tolerance (Tolérance XY) avec de légères différences. Par exemple, certains algorithmes sont itératifs, c’est-à-dire que la tolérance est appliquée à plusieurs reprises pendant l’analyse. L’impact du remplacement de la valeur par défaut du paramètre XY Tolerance (Tolérance XY) par une valeur supérieure ou inférieure est ainsi multiplié. Plus la valeur du paramètre XY Tolerance (Tolérance XY) est éloignée de la valeur par défaut, plus des problèmes risquent de se produire.
  • Toute modification inappropriée du paramètre XY Tolerance (Tolérance XY) est susceptible de générer des échecs, des déplacements d’entités, des erreurs topologiques, de fausser l’analyse, etc.
  • Toute modification inappropriée du paramètre XY Resolution (Résolution XY) risque de fausser les données en sortie, ainsi que les résultats de l’analyse. Tout remplacement de la valeur par défaut du paramètre XY Resolution (Résolution XY) par une valeur inférieure augmente la taille de l’entité. Cela peut induire des changements dans le traitement des données. Dans les outils de superposition classiques, cette augmentation de taille peut conduire à un tuilage plus important des données afin de réaliser l’analyse dans la limite des ressources disponibles, avec pour conséquence une multiplication du nombre de sommets introduits dans les entités franchissant des limites de tuiles. Pour plus d’informations, reportez-vous à la rubrique Traitement tuilé de jeux de données volumineux.

La géométrie des entités en entrée doit être valide. Une géométrie incorrectement définie affecte tous les outils de traitement de la géométrie en générant des échecs, des analyses erronées, des blocages de processus, des pannes ou, dans le pire des cases, un problème non identifié. Il vous incombe de vérifier que la géométrie de l’ensemble des données en entrée soit valide. Pour en savoir plus sur la vérification et la réparation des géométries

  • Les outils de superposition classiques peuvent être sensibles à des géométries non valides.

Considérations sur les performances

Les performances de l’ensemble des outils de géotraitement varient en fonction de la taille et de la complexité des données en entrée. Voici quelques exemples qui peuvent vous aider à sélectionner l’outil capable de répondre efficacement aux difficultés rencontrées.

Zones de superposition importante

Exemple de sortie complexe de l’outil Intersecter

Les zones de superposition importante de lignes et de polygones peuvent compromettre les performances des principaux outils de superposition classiques.

Dans le cas d’une zone tampon en sortie constituée d’une forte densité de polygones, le nombre de polygones superposés dans la zone tampon peut être tel que la sélection d’une seule surface dans les données revient à sélectionner des dizaines, voire des centaines de milliers d’entités dans la zone tampon. Pour les principaux outils de superposition comme Intersecter ou Effacer, démêler chaque polygone créé par l’ensemble de ces superpositions peut s’avérer une tâche délicate. Le recours aux outils de superposition deux par deux peut être préférable dans ce cas de figure.

Dans le cas d’une forte densité de lignes sécantes, chaque point d’intersection et de superposition est déterminé au préalable par les outils de superposition classiques (Intersecter, Effacer et Découper, dans une certaine mesure). Cette tâche peut s’avérer délicate dans les cas les plus graves. Le recours aux outils de superposition deux par deux peut être préférable dans ce cas de figure.

Si votre analyse se base sur l’identification de chaque instance de superposition (comme lorsque vous utilisez les outils Intersecter ou Agréger), vous devez utiliser les outils de superposition classiques. Toutefois, si vos dizaines de milliers ou centaines de milliers d’entités en entrée génèrent en sortie des centaines de millions d’entités représentant chacune un incident de superposition, il vous faudra peut-être revoir votre approche pour parvenir à interpréter correctement les résultats de l’opération de superposition. En réévaluant l’objectif de votre analyse, vous découvrirez peut-être qu’il vous faut revoir la taille et la portée de l’analyse à réaliser, afin de mieux comprendre les résultats générés. En divisant les données en zones d’intérêt de taille plus raisonnable, vous pouvez améliorer les performances des outils de superposition classiques lorsque la densité des entités superposées en entrée est très importante.

Considérations pour les entités très volumineuses

Ni les outils de superposition classiques ni les outils de superposition deux par deux ne peuvent prendre en charge les entités dépassant les capacités de la machine traitant les données.

  • Ces entités sont trop volumineuses pour être prises en charge sur la machine sur laquelle l’analyse est effectuée. Elles résultent souvent d’une opération des outils Raster vers polygone ou Fusionner effectuée sur une machine disposant de plus de capacités que celle sur laquelle est effectuée l’analyse.
  • Il est possible que ces entités ne s’affichent pas, ou seulement en partie.
  • L’utilisation de ces données dans un outil de géotraitement peut fausser la sortie, provoquer un blocage apparent du processus, des erreurs de mémoire insuffisante, voire dans les cas les plus graves, une panne.
  • Une entité peut être trop volumineuse sur une machine, et pas sur une autre. Pour déterminer si une entité est trop volumineuse, il faut se reporter à la quantité de mémoire RAM dont dispose la machine sur laquelle l’analyse est effectuée. Plus la machine possède de mémoire RAM, plus l’entité peut avoir une taille importante sans poser de problème.
  • La taille maximale que peut avoir une seule entité dans la géodatabase est de 2 Go.
  • Si vos entités sont trop volumineuses pour être traitées, il est nécessaire de les diviser à l’aide de l’outil Segmenter afin de réussir à les analyser. Il est fort probable que les autres outils habituellement utilisés pour manipuler des entités existantes ne parviennent pas à modifier une entité comportant des millions de sommets.

Les entités trop volumineuses risquent de créer des difficultés en cours de traitement ; elles sont néanmoins utilisables pour réaliser des tâches simples. Malgré leur très grand nombre de sommets, leur taille n’est pas assez importante pour provoquer à elle seule des problèmes. Elle est néanmoins suffisante pour compromettre les performances et entraîner des échecs à la fois dans les outils de superposition classiques et les outils de superposition deux par deux.

  • Ces entités s’affichent et peuvent être utilisées dans une analyse simple sans difficulté. Cependant, même lors de ces opérations simples, une dégradation visible des performances et une hausse de l’encombrement mémoire peuvent se produire.
  • Dans certains cas, si une de ces entités couvre une vaste partie de la zone d’intérêt, elle doit souvent être dupliquée dans la mémoire pour pouvoir être traitée (en particulier en cas de traitement parallèle). Cette opération peut aboutir à une baisse des capacités disponibles sur la machine. Une dégradation importante des performances et des échecs graves peuvent se produire.
  • À cause de ces entités, les performances se détériorent à la fois dans les outils de superposition classique et les outils de superposition deux par deux. Ces derniers, qui reposent sur une approche plus simple de l’analyse des données pour laquelle ils utilisent en général une quantité de mémoire plus faible, peuvent sans doute prendre en charge des entités de ce type plus efficacement.
  • Si vous avez dans vos données de telles entités très volumineuses, vous devrez peut-être réévaluer les objectifs de vos analyses. Demandez-vous si vous avez vraiment besoin d’une précision au millimètre pour analyser le littoral d’un continent ou pour définir les limites d’une migration d’oiseaux.
  • Il existe deux méthodes pour améliorer l’efficacité de vos analyses lorsque vos données contiennent des entités aussi volumineuses. Si vous n’avez pas besoin du niveau de précision représenté dans vos données, vous pouvez envisager de les simplifier (à l’aide de l’outil Simplifier un polygone ou d’autres outils similaires). Si vous souhaitez conserver la précision de vos entités, vous pouvez les fractionner en plusieurs entités plus petites. Si l’entité comprend plusieurs parties, l’outil Multi-parties vers une partie permet de la réduire à une taille suffisante pour réussir l’analyse. À défaut, vous pouvez utiliser l’outil Segmenter pour diviser l’entité avant l’analyse. Il est possible de réunir les entités subdivisées ultérieurement dans le processus à l’aide des outils Fusionner ou Fusionner deux par deux, un ID unique étant attribué à chaque entité avant le fractionnement.

Considérations sur la référence spatiale et la projection à la volée

Si vous utilisez un outil de géotraitement avec deux entrées ayant chacune une référence spatiale distincte, dans la plupart des outils, le système de coordonnées en sortie est défini sur celui de la première entrée. Celui-ci sera également utilisé pour la projection des données issues de la deuxième entrée dont la référence spatiale est différente, aux fins d’analyse. Toute modification dynamique de la projection à la volée risque de détériorer les performances (et de générer des inexactitudes dues à un alignement incorrect des données entre les couches). Chaque fois que cela est possible, afin de garantir la fiabilité des performances et la précision de la sortie, toutes les entrées doivent avoir la même référence spatiale.