ArcGIS Pro peut être utilisé avec de nombreuses machines virtuelles hébergées dans le cloud compatibles avec les GPU. Les offres Microsoft Azure pouvant être utilisées avec ArcGIS Pro sont les suivantes :
Ces machines virtuelles Azure offrent la flexibilité nécessaire à la prise en charge de divers cas d’utilisation et vous permettent ainsi d’allouer les ressources adéquates (vCPU, RAM et GPU, par exemple). Les machines virtuelles Azure peuvent utiliser les spécifications minimales. Toutefois, leur taille peut être augmentée selon les incréments définis par Azure. Par exemple, la machine virtuelle NC4as_T4_v3 peut évoluer jusqu’à NC8as_T4_v3 pour bénéficier de davantage de CPU et de RAM, avec le GPU NVIDIA T4 affecté au type de machine virtuelle.
Les instructions ci-dessous procurent un cadre structuré aux équipes SIG et informatiques en vue de la sélection de la plateforme Azure la plus adaptée pour exécuter ArcGIS Pro, que vous utilisiez des machines virtuelles avec GPU autonomes, des sessions de bureau regroupées, des PC Cloud ou des configurations Azure sur site. Chaque option est clairement décrite avec les cas d’utilisation idéaux, les recommandations en matière de dimensionnement des machines virtuelles en fonction d’une charge de travail légère, modérée ou lourde et les étapes de déploiement détaillées qui prennent en charges les choix tels que les GPU NVadsA10, NCasT4_v3 et NVv4 series pour les scénarios à session unique ou multisession. Vous trouverez également des informations sur les accélérateurs de provisionnement tels que l’accélérateur Mission Landing‑Zone (MLZ) pour les déploiements offrant une bonne gouvernance, les PC Cloud Microsoft Windows 365 équipés de GPU en vue d’un provisionnement clé en main rapide, l’infrastructure hyperconvergée (HCI) Azure Stack pour les environnements souverains, sensibles à la latence. En alignant les exigences en matière de gouvernance des données, les besoins d’accès simultané des utilisateurs et les responsabilités opérationnelles, les équipes peuvent optimiser les performances, la gestion et les coûts dans tous les modèles de déploiement.
Pour en savoir plus sur Azure Virtual Desktop
En savoir plus sur le déploiement deArcGIS Pro dans Azure Virtual Desktop
Choisir une plateforme Azure
La sélection d’un environnement Azure détermine l’emplacement des projets ArcGIS Pro et des géodatabases associées, la vitesse d’intégration des nouveaux utilisateurs ou la capacité d’évolution et les personnes qui sont responsables de la maintenance des pilotes de GPU.
En tant que responsable SIG ou administrateur informatique, commencez par déterminer les données qui doivent respecter des règles ou réglementations spécifiques. Réfléchissez ensuite au nombre de personnes qui devront accéder au système aux périodes de pointe, par exemple, pendant la saison des incendies de forêt. Enfin, déterminez qui de votre équipe ou de Microsoft a la responsabilité des mises à jour et de la maintenance. Une fois ces problèmes réglés, il est bien plus simple de choisir la bonne configuration Azure.
Le tableau ci-dessous décrit les différentes plateformes Azure, le scénario idéal pour chacune d’elles, les principaux avantages et les limites.
| Plateforme | Scénario | Avantage | Limitation |
|---|---|---|---|
Machines virtuelles Azure optimisées par GPU | Les utilisateurs avancés individuels exigent un contrôle racine ou des charges de travail burst‑to‑cloud. | Droits d’administration complets, possibilité de créer des instantanés d’image et facturation à la seconde | Une machine virtuelle par session, sauf si vous ajoutez des services RDSH (Remote Desktop Service Host) |
| Azure Virtual Desktop (AVD) | Les GPU sont partagés entre plusieurs analystes via un pool d’hôtes. | Stratégies de mise à l’échelle automatique, profils itinérants FSLogix et métriques enrichis | Nécessite un réglage des profils et des règles de mise à l’échelle automatique |
| ArcGIS Pro Accélerateur Mission Landing-Zone | Déployez rapidement un AVD offrant une bonne gouvernance via un code. | Générateur d’images, fichiers et stratégie NetApp, et classeurs Microsoft Azure Monitor prêts à l’emploi | Déploiement nécessaire de Microsoft Azure Resource Manager (ARM) à l’aide de Bicep |
| Windows 365 PC Cloud équipés de GPU | Prestataires ou dirigeants ayant besoin d’un bureau clé en main n’importe où. | Provisionnement en 30 minutes, correctifs gérés par Microsoft, aucun réseau virtuel | SKU fixes, bureau mono-utilisateur |
| Azure Local (Stack HCI) | Sites souverains ou périphériques exigeant une latence < 5 ms avec des données sur site. | Expérience utilisateur AVD (en plus des données) en cas d’utilisation de Microsoft Azure Arc | Frais d’investissement en matériel, jeu d’entités tronçon en mode d’aperçu |
Autres éléments à prendre en compte pour les déploiements de plateformes
Lors de la sélection d’une plateforme de virtualisation tirant parti d’Azure, il est important de tenir compte du mode de gestion des licences, de la latence du réseau, de l’expérience utilisateur, de la configuration système requise et des scénarios en conditions réelles.
Gestion des licences ArcGIS Pro dans Azure
ArcGIS Pro prend en charge trois modèles de licence dans les déploiements basés sur Azure : Utilisateur nommé, Licence fixe et Licence flottante. Les licences d’utilisateur nommé, conditionnées aux informations d’identification ArcGIS Online ou ArcGIS Enterprise, donnent accès depuis un maximum de trois appareils par utilisateur. Les licences fixes se lient à une machine virtuelle ou un PC Cloud spécifique, ce qui rend inutile toute connexion. Les licences flottantes reposent sur un pool de licences partagé, géré par ArcGIS License Manager s’exécutant dans Azure ou sur site. Les anciennes architectures de gestion des licences peinent à gérer les instantanés ou le clonage de machine virtuelle du fait d’identifiants de machine instables, mais l’utilisation de License Manager version 2019.2 et ArcGIS Pro 2.5 ou ultérieur permet une meilleure prise en charge de ces environnements. Cependant, la restauration des instantanés ou la migration des machines virtuelles risquent encore de perturber les liaisons de licences, si elles ne sont pas configurées correctement.
Remarque :
Le type de licence flottante est obsolète depuis le 1er juillet 2025. Pour plus d’informations, reportez-vous à la page Licences flottantes et avis d’obsolescence d’ArcGIS License Manager.
Latence du réseau et expérience utilisateur
Les performances d’ArcGIS Pro dans les environnements de bureau à distance sont particulièrement sensibles à la latence du réseau, laquelle éclipse souvent les soucis de bande passante. L’expérience utilisateur dans ce scénario exige, en général, un temps aller-retour (RTT) inférieur ou égal à 200 ms pour garantir des déplacements/zoom suffisamment réactifs et des accès en temps réel aux données. Le débit réseau recommandé varie en fonction de la tâche : 1,5 Mb/s environ pour les charges de travail légères, 3 Mb/s environ pour les charges de travail modérées et 5 Mb/s ou plus pour les processus d’analyse ou 3D intensifs. Des fréquences d’images et des résolutions plus élevées peuvent nécessiter des débits encore plus importants. Le déploiement des capacités de calcul et de stockage et des points de terminaison des utilisateurs au sein de la même région ou du même sous-réseau Azure permet d’optimiser plus facilement la latence et la réactivité. Il est vivement conseillé de procéder à des essais pilotes, à l’aide d’outils tels que l’outil Évaluation des performances (PAT) d’ArcGIS Pro, pour valider les performances en conditions réelles avant d’envisager un déploiement à grande échelle.
En savoir plus sur le dimensionnement des machines virtuelles
Configuration système requise et performances réelles
ArcGIS Pro a besoin de suffisamment de ressources locales pour fonctionner de façon efficace, même dans des environnements Cloud. Selon la configuration système requise, le minimum de base recommandé est d’au moins 32 Go de RAM. Il faut, cependant, prévoir 64 Go ou plus de RAM dans le cas d’analyses intensives ou d’opérations de rendu complexes. Un GPU discret disposant d’au moins 4 Go de mémoire dédiée est également conseillé. Une allocation insuffisante de CPU, RAM ou GPU, notamment dans le cas de machines virtuelles partagées ou sous-dimensionnées, risque d’entraîner des décalages, des réponses différées des outils ou une instabilité de l’application. Des utilisateurs font état de différents problèmes, tels que des délais de plusieurs secondes lors du changement de mise en page ou de la navigation dans des projets volumineux sur des machines virtuelles manquant de puissance. Pour éviter ce genre d’inconvénient, il est donc essentiel de mener des essais pilotes portant sur des processus utilisateur types et d’ajuster le dimensionnement des machines virtuelles, de manière itérative, afin de trouver le meilleur compromis entre coût et performance.
Machines virtuelles Azure optimisées par GPU
Lorsqu’un professionnel SIG souhaite atteindre des performances équivalentes à celles d’un poste de travail, sans avoir à attendre l’installation d’une batterie VDI entière, une machine virtuelle Azure optimisée par GPU est une bonne alternative. Ces machines virtuelles peuvent être déployées à la demande, de façon à ce que les utilisateurs accèdent au niveau de puissance requis en l’espace de quelques minutes au lieu de plusieurs jours. Si vous disposez des droits d’administration au niveau local, vous pouvez installer des versions bêta d’ArcGIS Pro, tester des boîtes à outils Python personnalisées ou configurer des environnements complexes pour des processus spécifiques, depuis un espace isolé qui ne risque pas d’interférer avec des collègues ou des ressources de production partagées.
Vous pouvez également capturer et réutiliser des images de référence entre les projets, de façon à pouvoir rétablir facilement un état fonctionnel connu des configurations ou environnements de machines virtuelles. Les frais sont facturés quand la machine virtuelle s’exécute et sont suspendus dès que vous supprimez l’affectation de la machine virtuelle. Cela rend les machines virtuelles Azure optimisées par GPU d’autant plus intéressantes pour des travaux intensifs de cartographie à court-terme, des analyses en dehors des heures habituelles et des charges de travail à court ou long terme. Les frais d’investissements ne seraient plus perçus dès lors comme des dépenses en capital, mais comme un surcroît d’agilité opérationnelle grâce au système de paiement à l’utilisation.
Les références SKU recommandées pour les machines virtuelles Azure sont les suivantes :
- NVadsA10 v5 : tranches NVIDIA A10
- NCasT4_v3 : jusqu’à 4 × GPU T4
- NVv4 : GPU AMD MI25 à fractions
Pour plus d’informations sur le dimensionnement, reportez-vous à Dimensionnement des machines virtuelles et profils utilisateur.
Pour déployer une machine virtuelle Azure optimisée par GPU, procédez comme suit :
- Créez une machine virtuelle dans une région d’une capacité adaptée à la taille de la série NV. Choisissez une image ArcGIS Pro 3.x.
- Choisissez une référence SKU telle que NVadsA10, NCasT4 ou NVv4 et configurez le disque SSD (Solid-State Drive) Premium v2.
- Activez les performances réseau accélérées et ajoutez une NVIDA GPU Driver Extension.
- À l’aide du Bureau à distance, procurez-vous la licence d’ArcGIS Pro et exécutez l’outil Évaluation des performances (PAT) d’ArcGIS Pro.
Azure Virtual Desktop (AVD) et accélerateur AVD
AVD convient aux organisations recherchant des performances dignes d’un poste de travail, mais qui préfèrent avoir plus de souplesse qu’une configuration d’un GPU par utilisateur. Au lieu de dédier un GPU à chaque utilisateur, AVD vous permet de partager des ressources GPU entre plusieurs utilisateurs en négociant les machines virtuelles optimisées par GPU via le panneau de configuration de Microsoft. Cela permet non seulement de réduire les coûts, mais aussi d’optimiser les performances pour des applications exigeantes comme ArcGIS Pro.
Vous pouvez contrôler des métriques essentielles telles que la fréquence d’images, la latence de l’encodeur et la bande passante au niveau utilisateur via Azure Monitor pour garantir une expérience utilisateur de qualité. L’environnement est évolutif : vous pouvez ajouter de nouveaux analystes en les affectant à un groupe, tel qu’Entra ID, et les machines virtuelles peuvent s’arrêter automatiquement lorsqu’elles ne sont pas utilisées. L’environnement Cloud qui en résulte offre souplesse et efficacité, ainsi qu’un excellent compromis entre performance et évolutivité.
Cette plateforme se caractérise par certains des éléments de conception suivants :
- Latence visée inférieure à un temps aller-retour (RTT) de 200 ms
- Densité d’environ 1/8 GPU pour les utilisateurs légers et 1/3 GPU pour les utilisateurs intensifs
- Les profils incluent FSLogix sur les partages de fichiers Azure Files Premium et des données sur NetApp
Pour déployer un Azure Virtual Desktop et un accélerateur AVD, procédez comme suit :
- Enregistrez le fournisseur AVD à l’aide de la commande Register-AzResourceProvider.
- Créez un pool d’hôtes et un espace de travail.
- Ajoutez des hôtes de session avec la taille de GPU appropriée et une image ArcGIS Pro.
- Configurez le chemin d’accès à FSLogix sur Azure Files.
- Définissez le plan de mise à l’échelle et activez le chemin court UDP.
- Testez les performances à l’aide de l’outil Évaluation des performances (PAT) d’ArcGIS Pro.
Accélérateur ArcGIS Pro
Azure Virtual Desktop (AVD) offre aux utilisateurs ArcGIS Pro un moyen d’accéder aux bureaux accélérés par GPU dans le Cloud. Au lieu de dédier une machine virtuelle optimisée par GPU à chaque analyste, AVD permet de partager des ressources GPU entre plusieurs utilisateurs, tout en veillant à ce que les coûts restent prévisibles et que les processus 2D et 3D soient toujours pris en charge.
L’accélérateur Mission Landing‑Zone (MLZ) ajoute des modèles prêts à l’emploi, des stratégies de sécurité et une fonction de supervision pour permettre à votre équipe informatique de mettre en place rapidement un environnement AVD offrant une bonne gouvernance. Vous pouvez ainsi prendre en main ArcGIS Pro rapidement, sans avoir à concevoir vous-même les différents éléments structurels nécessaires à la mise en réseau, à la sécurité et au déploiement.
Cette plateforme peut présenter les avantages suivants pour les utilisateurs ArcGIS Pro :
- Excellentes performances 2D et 3D avec les ressources GPU partagées.
- Les profils et les données des utilisateurs peuvent être transférés d’une session à l’autre si vous utilisez FSLogix conjointement à Azure Files Premium et des données sur NetApp.
- Grâce à la fonction de mise à l’échelle automatique intégrée, vous payez uniquement pour la capacité nécessaire.
- Des stratégies prêtes à l’emploi assurent la sécurité et la fiabilité des environnements.
- Les tableaux de bord centraux permettent de suivre les performances d’ArcGIS Pro en ce qui concerne la fréquence d’images par seconde, la latence et l’utilisation du GPU notamment.
Cette plateforme est idéale pour les organisations comptant plusieurs analystes ArcGIS Pro en quête d’un environnement géré et rentable. Elle vous permet également d’intégrer rapidement de nouveaux utilisateurs en les affectant au pool. Cette plateforme se prête aussi à la gouvernance de la sécurité et aux déploiements reproductibles.
Pour en savoir plus sur les étapes de déploiement d’ArcGIS Pro, sur les exemples de paramètres et sur les scripts, reportez-vous à la section ArcGIS du référentiel Azure Mission Landing-Zone.
PC Cloud Microsoft Windows 365 équipés de GPU
Les PC Cloud Windows 365 fournissent à chaque analyste ArcGIS Pro un bureau dédié avec accélération du GPU dont Microsoft gère les correctifs et l’évolutivité. Étant donné que le bureau est fourni en tant que service, les administrateurs SIG attribuent une licence Windows 365 avec le composant additionnel GPU. L’utilisateur peut alors démarrer ArcGIS Pro depuis n’importe quel appareil utilisant Windows ou un navigateur moderne. Cette plateforme est idéale pour ceux qui ont besoin d’un niveau de performance ArcGIS Pro homogène, sans se soucier de mettre en place un pool d’hôtes Azure Virtual Desktop ou de rejoindre un réseau virtuel d’entreprise.
Vous trouverez ci-après la liste des différents types de SKU, ainsi que des informations sur la mémoire virtuelle et les types de processus recommandés.
| SKU | vCPU/RAM/vRAM | Charges de travail ArcGIS Pro recommandées |
|---|---|---|
Standard | 4 Go/16 Go/8 Go | Cartographie 2D de base, révision des données, utilisation de deux écrans 1080p |
Super | 8 Go/56 Go/12 Go | Mise à jour 2D et 3D combinée, visualisation du MNT jusqu’à 4K |
Max. | 16 Go/110 Go/16 Go | Scènes 3D denses, classification lidar, outils Deep Learning |
Pour déployer un PC Cloud Microsoft Windows 365 équipé de GPU, procédez comme suit :
- Attribuez des licences pour Microsoft Windows 365 Enterprise et un module additionnel GPU pour chaque analyste dans Entra ID.
- Créez une stratégie de provisionnement dans Microsoft Intune. Sélectionnez le PC Cloud équipé de GPU et choisissez le SKU et la région Azure la plus proche de vos utilisateurs.
- Choisissez une image. Depuis la Azure Compute Gallery, choisissez une image personnalisée contenant ArcGIS Pro 3.x et les paquetages Python requis.
- Attribuez la stratégie. Sous Utilisateurs/Groupes, attribuez la stratégie aux utilisateurs.
- Assurez-vous qu’ArcGIS Pro s’exécute comme prévu. L’utilisateur se connecte à l’aide de l’application Windows, lance ArcGIS Pro, puis exécute l’outil Évaluation des performances (PAT) d’ArcGIS Pro pour déterminer le minimum de base.
Azure Local
Si les utilisateurs ArcGIS Pro ont besoin de travailler directement avec des données locales, que ce soit depuis des sites sécurisés, des bureaux extérieurs ou des lieux sans connexion Internet fiable, Azure Local offre des bureaux accélérés par GPU sur site, gérés via le portail Azure. C’est idéal lorsque le Cloud public n’est pas envisageable pour des raisons de connectivité, de conformité ou à cause de jeux de données volumineux.
Lorsque ArcGIS Pro est exécuté en parallèle avec les géodatabases et données d’imagerie ou lidar locales, Azure Local permet d’atteindre une vitesse similaire à celle d’un poste de travail et garantit des fonctions de cartographie 2D/3D fluides, un rendu rapide et une grande réactivité lors des analyses.
Cette plateforme peut présenter les avantages suivants pour les utilisateurs ArcGIS Pro :
- Les projets s’exécutent directement au niveau des géodatabases fichier et des données d’imagerie et lidar locales, sans avoir à attendre les transferts dans le Cloud.
- Les sessions optimisées par GPU offrent une réactivité similaire à celle d’un poste de travail lors des visualisations et des analyses.
- Comme les profils et les caches sont transférés en même temps que le profil d’un utilisateur via FSLogix, les analystes peuvent se reconnecter rapidement lorsqu’ils passent d’un site à un autre ou en cas de perte de connexion.
- Les sessions ArcGIS Pro restent utilisables sur les clusters locaux, même si la connexion Internet au Cloud public est lente ou interrompue.
- L’équipe informatique peut contrôler les performances, appliquer des stratégies et gérer des bureaux virtuels via la même interface du portail Azure que celle utilisée pour les ressources Cloud.
La conception de référence (optimisée pour les SIG) de cette plateforme possède les caractéristiques suivantes pour un nœud unique :
- Capacités de calcul : 1 serveur Hyper-V doté d’un CPU Intel Xeon et d’un GPU NVIDIA L40S, partitionné en tranches vGPU dimensionnées pour des utilisateurs ArcGIS Pro.
- Capacités de stockage : disques SSD NVMe locaux avec dossiers séparés pour les géodatabases fichier et les caches raster.
- Profils et mise en cache : les conteneurs de profils FSLogix sont stockés sur le même nœud, la mise en cache dans le Cloud étant activée pour permettre des reconnexions rapides.
- Mise en réseau : le réseau virtuel local est géré via Microsoft Azure Arc ; une passerelle AVD Edge en option peut continuer à afficher le trafic sur site.
- Supervision : l’agent Azure Monitor et la fonction Log Analytics effectuent un suivi du pourcentage d’utilisation du GPU, de la fréquence d’images et de la latence de stockage.
Pour déployer Azure Local pour ArcGIS Pro, procédez comme suit :
- Installez Azure Stack HCI 23H2 sur des nœuds GPU validés et formez le cluster.
- Enregistrez le cluster auprès de Azure Arc à l’aide de Connect-AzStackHci. Assurez-vous que le statut est sain dans le portail Azure.
- Activez la fonction GPU pass-through. Installez le pack de pilotes GPU Windows Server. Configurez la technologie DDA (Discrete Device Assignment) ou Hyper-V vGPU.
- Générez une image ArcGIS Pro (version 3.x et pilote GPU) avec Azure VM Image Builder et publiez-la sur une Azure Compute Gallery sur site.
- Activez AVD pour Azure Local (version préliminaire), configurez le cluster sur site en tant qu’emplacement des ressources, puis déployez le pool d’hôtes dimensionné par tranches vGPU.
- Créez des partages SMB (Server Message Block) sur le cluster pour les géodatabases fichier et les caches raster, et mappez-les aux hôtes de session à l’aide d’un objet Stratégie de groupe.
- Configurez un chemin de profil FSLogix vers un partage du cluster et activez une mise en cache dans le Cloud de 4 Go à des fins de résilience.
- Publiez l’application distante ArcGIS Pro à partir du groupe des applications de bureau et attribuez des utilisateurs et des groupes à Entra ID.
- Validez les performances à l’aide de l’l’outil Évaluation des performances (PAT) d’ArcGIS Pro et surveillez le pourcentage d’utilisation du GPU et la latence dans Azure Monitor.
Rubriques connexes
Vous avez un commentaire à formuler concernant cette rubrique ?