Verbindungsdatei für Cloud-Speicher erstellen (Data Management)

Zusammenfassung

Erstellt eine Verbindungsdatei für von ArcGIS unterstützte Cloud-Speicher. Mit diesem Werkzeug können vorhandene Raster-Geoverarbeitungswerkzeuge CRF-Datasets (Cloud-Raster-Format) in den Cloud-Speicher-Bucket schreiben oder Raster-Datasets als Eingabe lesen (nicht nur CRF), die im Cloud-Speicher gespeichert sind.

Verwendung

  • Zum Ausführen dieses Werkzeugs müssen Sie die erforderlichen Informationen für eine Cloud-Speicherverbindung angeben, beispielsweise eine Zugriffsschlüssel-ID, eine Zeichenfolge des geheimen Zugriffsschlüssels und einen Bucket-Namen. Mit dem Parameter Provider-Optionen können Sie auch alternative Authentifizierungsmethoden verwenden.

    Weitere Informationen zum Herstellen einer Verbindung mit Cloud-Speichern

  • Das Werkzeug gibt eine binäre Cloud-Speicherverbindungsdatei (.acs) im ArcGIS-Cloud-Speicherformat aus.

  • Auf das im Cloud-Speicher gespeicherte Raster-Dataset kann über einen Dateipfad wie c:/temp/amazons3.acs/someraster verwiesen werden.

  • Dieses Werkzeug unterstützt Verbindungen mit Amazon Simple Storage Service (S3)-Buckets, Microsoft Azure BLOB-Speichercontainern, Microsoft Azure Data Lake Storage Gen2, Alibaba Cloud Object Storage Service (OSS)-Buckets, Google Cloud Storage Service-Buckets (GCS), WebHDFS, MinIO und Ozone Object Storage Service-Buckets.

  • Wenn das Dataset in einem Ordner im Bucket gespeichert wird, muss der Ordnername im Pfad enthalten sein, z. B. c:/temp/amazons3.acs/foldername/someraster.

  • Das Werkzeug überprüft die angegebenen Anmeldeinformationen zur Laufzeit. Wenn die Verbindung nicht hergestellt werden kann, schlägt das Werkzeug fehl.

  • Die rollenbasierte Zugriffssteuerung (Role-Based Access Control, RBAC) ist für Amazon,Azure, und Google-Cloud-Provider verfügbar. Indem alle Authentifizierungsparameter während der Verwendung einer virtuellen EC2- oder Azure-Maschine oder der Google Compute Engine leer gelassen werden, kann ArcGIS Pro mithilfe von IAM-Rollen oder Azure RBAC auf BLOB-Speicher zugreifen. Bei Amazon werden IMDSv1 und IMDSv2 unterstützt.

    Microsoft Azure Data Lake Storage Gen2 bietet dieselben Optionen wie Azure, stellt jedoch mithilfe eines DFS-Endpunktes tatsächliche Verzeichnisunterstützung und atomische Vorgänge bereit. Bei einigen Netzwerkfehlern in Cloud-Vorgängen werden gemäß dem exponentiellen Backoff Wiederholungsversuche durchgeführt.

    Überlegungen zur Performance sowie zusätzliche Informationen finden Sie in der Dokumentation zu virtuellen GDAL-Dateisystemen.

Parameter

BeschriftungErläuterungDatentyp
Speicherort der Verbindungsdatei

Der Ordnerpfad, in dem die Verbindungsdatei erstellt wird.

Folder
Name der Verbindungsdatei

Der Name der Cloud-Speicherverbindungsdatei.

String
Service-Provider

Gibt den Cloud-Speicher-Service-Provider an, der verwendet werden soll.

  • AzureDer Service-Provider ist Microsoft Azure.
  • AmazonDer Service-Provider ist Amazon S3.
  • GoogleDer Service-Provider ist Google Cloud Storage.
  • AlibabaDer Service-Provider ist Alibaba Cloud Storage.
  • WebHDFSDer Service-Provider ist WebHDFS.
  • MinIODer Service-Provider ist MinIO.
  • Azure Data LakeDer Service-Provider ist Azure Data Lake.
  • OzoneDer Service-Provider ist Ozone.
String
Name des Bucket (Containers)

Der Name des Cloud-Speichercontainers, in dem das Raster-Dataset gespeichert wird. Er wird von vielen Cloud-Anbietern auch als Bucket bezeichnet.

String
Zugriffsschlüssel-ID (Kontoname)
(optional)

Die Zeichenfolge der Zugriffsschlüssel-ID für den speziellen Cloud-Speichertyp. Dies kann auch der Kontoname sein, beispielsweise bei Azure.

String
Geheimer Zugriffsschlüssel (Kontoschlüssel)
(optional)

Die Zeichenfolge des geheimen Zugriffsschlüssels zur Authentifizierung der Verbindung mit dem Cloud-Speicher.

Encrypted String
Region (Umgebung)
(optional)

Die Regionszeichenfolge für den Cloud-Speicher. Wird sie angegeben, muss der Wert das Format aufweisen, das vom ausgewählten Cloud-Speicher definiert wird. Der Standard ist das Standardkonto des ausgewählten Cloud-Providers.

String
Service-Endpunkt
(optional)

Der Service-Endpunkt (URI) des Cloud-Speichers, z. B. oss-us-west-1.aliyuncs.com. Wenn ein Wert nicht angegeben wird, wird der Standardendpunkt des ausgewählten Cloud-Speichertyps verwendet. Bei Bedarf kann auch der umgeleitete CNAME-Endpunkt verwendet werden.

String
Provider-Optionen
(optional)

Die Konfigurationsoptionen, die zum jeweiligen Typ von Cloud-Service gehören. Nicht alle Services bieten Optionen an. Diesen Parameter müssen Sie nur dann festlegen, wenn Sie die Optionen aktivieren möchten.

  • Azure und Microsoft Azure Data Lake
    • AZURE_SAS: Geben Sie eine Shared Access Signature an. Stellen Sie sicher, dass der Wert URL-codiert ist und keine führenden ?- oder &-Zeichen enthält. Wenn Sie diese Option verwenden, muss der Parameter Geheimer Zugriffsschlüssel (Kontoschlüssel) leer sein.
    • AZURE_NO_SIGN_REQUEST (Standardeinstellung: False): Stellen Sie eine anonyme Verbindung zu Buckets (Containern) her, die keinen authentifizierten Zugriff erfordern. Wenn Sie diese Option verwenden, muss der Parameter Geheimer Zugriffsschlüssel (Kontoschlüssel) leer sein.
    • AZURE_STORAGE_CONNECTION_STRING: Geben Sie eine Azure-Speicher-Verbindungszeichenfolge an. Diese Verbindungszeichenfolge bettet den Kontonamen, den Schlüssel sowie den Endpunkt ein. Wenn Sie diese Option verwenden, müssen die Parameter Zugriffsschlüssel-ID (Kontoname) und Geheimer Zugriffsschlüssel (Kontoschlüssel) leer sein.
    • CPL_AZURE_USE_HTTPS (Standardeinstellung: True): Setzen Sie diese Option auf "False", um HTTP-Anforderungen zu verwenden. Einige Server sind möglicherweise so konfiguriert, dass sie ausschließlich HTTPS-Anforderungen unterstützen.
  • Amazon und MinIO
    • AWS_NO_SIGN_REQUEST (Standardeinstellung: False): Stellen Sie eine anonyme Verbindung zu Buckets (Containern) her, die keinen authentifizierten Zugriff erfordern.
    • AWS_SESSION_TOKEN: Geben Sie temporäre Anmeldeinformationen an.
    • AWS_DEFAULT_PROFILE: AWS-Anmeldeprofile werden automatisch verwendet, wenn der Zugriffsschlüssel oder die ID fehlt. Diese Option kann verwendet werden, um das zu verwendende Profil anzugeben.
    • AWS_REQUEST_PAYER: Auf Buckets mit Zahlung durch den Anforderer kann zugegriffen werden, indem diese Option auf den Anforderer gesetzt wird.
    • AWS_Virtual_Hosting (Standardeinstellung: True): Wenn Sie Amazon S3 oder mit S3 kompatible Cloud-Provider verwenden, die nur pfadabhängige Anforderungen unterstützen, müssen Sie diese Option auf "True" setzen. Die Verwendung von virtuellem Hosting wird empfohlen, sofern es unterstützt wird.
    • CPL_VSIS3_USE_BASE_RMDIR_RECURSIVE (Standardeinstellung: True): Einige ältere mit S3 kompatible Implementierungen unterstützen den Vorgang für gleichzeitiges Löschen nicht. Setzen Sie diese Option bei diesen Providern auf "False".
    • AWS_HTTPS (Standardeinstellung: True): Setzen Sie diese Option auf "False", um HTTP-Anforderungen zu verwenden. Einige Server sind möglicherweise so konfiguriert, dass sie ausschließlich HTTPS-Anforderungen unterstützen.
  • Google
    • GS_NO_SIGN_REQUEST (Standardeinstellung: True): Stellen Sie eine anonyme Verbindung zu Buckets (Containern) her, die keinen authentifizierten Zugriff erfordern.
    • GS_USER_PROJECT: Auf Buckets mit Zahlung durch den Anforderer kann zugegriffen werden, indem OAuth2-Schlüssel und ein Projekt für die Rechnungsstellung festgelegt werden. Geben Sie das Projekt über diese Option an. Legen Sie OAuth2-Schlüssel unter Verwendung weiterer Optionen und nicht mit HMAC-Schlüsseln als geheimem Zugriffsschlüssel oder ID fest.
    • GS_OAUTH2_REFRESH_TOKEN: Geben Sie ein OAuth2-Aktualisierungszugriffstoken an. Legen Sie OAuth2-Clientanmeldeinformationen mit GS_OAUTH2_CLIENT_ID und GS_OAUTH2_CLIENT_SECRET fest.
    • GOOGLE_APPLICATION_CREDENTIALS: Geben Sie die Anmeldeinformationen für das Service-Konto OAuth2 in Form einer .json-Datei an, die einen privaten Schlüssel und eine Client-E-Mail-Adresse enthält.
    • GS_OAUTH2_ PRIVATE_KEY: Geben Sie die Anmeldeinformationen für das Service-Konto OAuth2 in Form eines privaten Schlüssels in einer Zeichenfolge an. GS_AUTH2_CLIENT_EMAIL muss festgelegt sein.
    • GS_OAUTH2_ PRIVATE_KEY_FILE: Geben Sie die Anmeldeinformationen für das Service-Konto OAuth2 in Form eines privaten Schlüssels in einer Datei an. GS_AUTH2_CLIENT_EMAIL muss festgelegt sein.
    • GS_AUTH2_CLIENT_EMAIL: Geben Sie die Anmeldeinformationen für das Service-Konto OAuth2 in Form einer Client-E-Mail-Adresse an.
    • GS_AUTH2_SCOPE: Geben Sie den Umfang für das Service-Konto OAuth2 an. Gültige Werte sind https://www.googleapis.com/auth/devstorage.read_write (Standard) und https://www.googleapis.com/auth/devstorage.read_only.
    • GDAL_HTTP_HEADER_FILE: Geben Sie die in einer externen Datei gespeicherten Anmeldeinformationen für die Bearerauthentifizierung an.
  • Alibaba
    • OSS_Virtual_Hosting (Standardeinstellung: True): Wenn Sie Alibaba oder mit S3 kompatible Cloud-Provider verwenden, die nur pfadabhängige Anforderungen unterstützen, müssen Sie diese Option auf "True" setzen. Die Verwendung von virtuellem Hosting wird empfohlen, sofern es unterstützt wird.
    • OSS_HTTPS (Standardeinstellung: True): Setzen Sie diese Option auf "False", um HTTP-Anforderungen zu verwenden. Einige Server sind möglicherweise so konfiguriert, dass sie ausschließlich HTTPS-Anforderungen unterstützen.
  • WebHDFS
    • WEBHDFS_REPLICATION (ganze Zahl): Dieser Replikationswert wird beim Erstellen einer Datei verwendet.
    • WEBHDFS_PERMISSION (Dezimalzahl): Beim Erstellen einer Datei wird eine Berechtigungsmaske verwendet.

Wenn mehrere Authentifizierungsparameter bereitgestellt werden, gilt diese Rangfolge:

  • Azure: AZURE_STORAGE_CONNECTION_STRING, Kontoname oder Schlüssel, AZURE_SAS, AZURE_NO_SIGN_REQUEST, RBAC.
  • Amazon: AWS_NO_SIGN_REQUEST, Zugriffs-ID oder Schlüssel oder AWS_SESSION_TOKEN, AWS-Anmeldeprofil, IAM-Rolle.
  • Google: GS_NO_SIGN_REQUEST, Zugriffs-ID oder Zugriffsschlüssel, GDAL_HTTP_HEADER_FILE, (GS_OAUTH2_REFRESH_TOKEN or GS_OAUTH2_CLIENT_ID and GS_OAUTH2_CLIENT_SECRET), GOOGLE_APPLICATION_CREDENTIALS, (GS_OAUTH2_PRIVATE_KEY or GS_OAUTH2_CLIENT_EMAIL), (GS_OAUTH2_PRIVATE_KEY_FILE or GS_OAUTH2_CLIENT_EMAIL) oder IAM Role.
  • Ozone
    • AWS_DEFAULT_PROFILE: AWS-Anmeldeprofile werden automatisch verwendet, wenn der Zugriffsschlüssel oder die ID fehlt. Diese Option kann verwendet werden, um das zu verwendende Profil anzugeben.
    • AWS_Virtual_Hosting (Standardeinstellung: True): Wenn Sie Amazon S3 oder mit S3 kompatible Cloud-Provider verwenden, die nur pfadabhängige Anforderungen unterstützen, müssen Sie diese Option auf "True" setzen. Die Verwendung von virtuellem Hosting wird empfohlen, sofern es unterstützt wird.
    • AWS_HTTPS (Standardeinstellung: True): Setzen Sie diese Option auf "False", um HTTP-Anforderungen zu verwenden. Einige Server sind möglicherweise so konfiguriert, dass sie ausschließlich HTTPS-Anforderungen unterstützen.
    • CPL_VSIS3_USE_BASE_RMDIR_RECURSIVE (Standardeinstellung: True): Einige ältere mit S3 kompatible Implementierungen unterstützen den Vorgang für gleichzeitiges Löschen nicht. Setzen Sie diese Option bei diesen Providern auf "False".
    • x-amz-storage-class: Geben Sie REDUCED_REDUNDANCY an, damit in einen einzelnen Ozone-Container geschrieben wird, da der Container über nur einen Datenknoten verfügt.

Zusätzlich zu den oben aufgeführten Provider-Optionen kann die Option ARC_DEEP_CRAWL (Standardeinstellung: True) mit allen Service-Providern verwendet werden. Bei "True" werden mit dieser Option CRF-Dateien ohne Erweiterung und cloudfähige Raster-Produkte in der Cloud identifiziert. Da dies ein kostenintensiver Vorgang ist, sollten Sie diese Option auf "False" setzen, um das Durchsuchen des Katalogs und das Durchforsten zu beschleunigen.

Value Table
Ordner
(optional)

Der im Parameterwert Name des Buckets (Container) angegebene Ordner, in dem das Raster-Dataset gespeichert wird.

String

Abgeleitete Ausgabe

BeschriftungErläuterungDatentyp
Ausgabeverbindungsdatei

Der Ausgabepfad der Cloud-Speicherverbindungsdatei.

File

arcpy.management.CreateCloudStorageConnectionFile(out_folder_path, out_name, service_provider, bucket_name, {access_key_id}, {secret_access_key}, {region}, {end_point}, {config_options}, {folder})
NameErläuterungDatentyp
out_folder_path

Der Ordnerpfad, in dem die Verbindungsdatei erstellt wird.

Folder
out_name

Der Name der Cloud-Speicherverbindungsdatei.

String
service_provider

Gibt den Cloud-Speicher-Service-Provider an, der verwendet werden soll.

  • AZUREDer Service-Provider ist Microsoft Azure.
  • AMAZONDer Service-Provider ist Amazon S3.
  • GOOGLEDer Service-Provider ist Google Cloud Storage.
  • ALIBABADer Service-Provider ist Alibaba Cloud Storage.
  • WEBHDFSDer Service-Provider ist WebHDFS.
  • MINIODer Service-Provider ist MinIO.
  • AZUREDATALAKEDer Service-Provider ist Azure Data Lake.
  • OZONEDer Service-Provider ist Ozone.
String
bucket_name

Der Name des Cloud-Speichercontainers, in dem das Raster-Dataset gespeichert wird. Er wird von vielen Cloud-Anbietern auch als Bucket bezeichnet.

String
access_key_id
(optional)

Die Zeichenfolge der Zugriffsschlüssel-ID für den speziellen Cloud-Speichertyp. Dies kann auch der Kontoname sein, beispielsweise bei Azure.

String
secret_access_key
(optional)

Die Zeichenfolge des geheimen Zugriffsschlüssels zur Authentifizierung der Verbindung mit dem Cloud-Speicher.

Encrypted String
region
(optional)

Die Regionszeichenfolge für den Cloud-Speicher. Wird sie angegeben, muss der Wert das Format aufweisen, das vom ausgewählten Cloud-Speicher definiert wird. Der Standard ist das Standardkonto des ausgewählten Cloud-Providers.

String
end_point
(optional)

Der Service-Endpunkt (URI) des Cloud-Speichers, z. B. oss-us-west-1.aliyuncs.com. Wenn ein Wert nicht angegeben wird, wird der Standardendpunkt des ausgewählten Cloud-Speichertyps verwendet. Bei Bedarf kann auch der umgeleitete CNAME-Endpunkt verwendet werden.

String
config_options
[config_options,...]
(optional)

Die Konfigurationsoptionen, die zum jeweiligen Typ von Cloud-Service gehören. Nicht alle Services bieten Optionen an. Diesen Parameter müssen Sie nur dann festlegen, wenn Sie die Optionen aktivieren möchten.

  • Azure und Microsoft Azure Data Lake
    • AZURE_SAS: Geben Sie eine Shared Access Signature an. Stellen Sie sicher, dass der Wert URL-codiert ist und keine führenden ?- oder &-Zeichen enthält. Wenn Sie diese Option verwenden, muss der Parameter Geheimer Zugriffsschlüssel (Kontoschlüssel) leer sein.
    • AZURE_NO_SIGN_REQUEST (Standardeinstellung: False): Stellen Sie eine anonyme Verbindung zu Buckets (Containern) her, die keinen authentifizierten Zugriff erfordern. Wenn Sie diese Option verwenden, muss der Parameter Geheimer Zugriffsschlüssel (Kontoschlüssel) leer sein.
    • AZURE_STORAGE_CONNECTION_STRING: Geben Sie eine Azure-Speicher-Verbindungszeichenfolge an. Diese Verbindungszeichenfolge bettet den Kontonamen, den Schlüssel sowie den Endpunkt ein. Wenn Sie diese Option verwenden, müssen die Parameter Zugriffsschlüssel-ID (Kontoname) und Geheimer Zugriffsschlüssel (Kontoschlüssel) leer sein.
    • CPL_AZURE_USE_HTTPS (Standardeinstellung: True): Setzen Sie diese Option auf "False", um HTTP-Anforderungen zu verwenden. Einige Server sind möglicherweise so konfiguriert, dass sie ausschließlich HTTPS-Anforderungen unterstützen.
  • Amazon und MinIO
    • AWS_NO_SIGN_REQUEST (Standardeinstellung: False): Stellen Sie eine anonyme Verbindung zu Buckets (Containern) her, die keinen authentifizierten Zugriff erfordern.
    • AWS_SESSION_TOKEN: Geben Sie temporäre Anmeldeinformationen an.
    • AWS_DEFAULT_PROFILE: AWS-Anmeldeprofile werden automatisch verwendet, wenn der Zugriffsschlüssel oder die ID fehlt. Diese Option kann verwendet werden, um das zu verwendende Profil anzugeben.
    • AWS_REQUEST_PAYER: Auf Buckets mit Zahlung durch den Anforderer kann zugegriffen werden, indem diese Option auf den Anforderer gesetzt wird.
    • AWS_Virtual_Hosting (Standardeinstellung: True): Wenn Sie Amazon S3 oder mit S3 kompatible Cloud-Provider verwenden, die nur pfadabhängige Anforderungen unterstützen, müssen Sie diese Option auf "True" setzen. Die Verwendung von virtuellem Hosting wird empfohlen, sofern es unterstützt wird.
    • CPL_VSIS3_USE_BASE_RMDIR_RECURSIVE (Standardeinstellung: True): Einige ältere mit S3 kompatible Implementierungen unterstützen den Vorgang für gleichzeitiges Löschen nicht. Setzen Sie diese Option bei diesen Providern auf "False".
    • AWS_HTTPS (Standardeinstellung: True): Setzen Sie diese Option auf "False", um HTTP-Anforderungen zu verwenden. Einige Server sind möglicherweise so konfiguriert, dass sie ausschließlich HTTPS-Anforderungen unterstützen.
  • Google
    • GS_NO_SIGN_REQUEST (Standardeinstellung: True): Stellen Sie eine anonyme Verbindung zu Buckets (Containern) her, die keinen authentifizierten Zugriff erfordern.
    • GS_USER_PROJECT: Auf Buckets mit Zahlung durch den Anforderer kann zugegriffen werden, indem OAuth2-Schlüssel und ein Projekt für die Rechnungsstellung festgelegt werden. Geben Sie das Projekt über diese Option an. Legen Sie OAuth2-Schlüssel unter Verwendung weiterer Optionen und nicht mit HMAC-Schlüsseln als geheimem Zugriffsschlüssel oder ID fest.
    • GS_OAUTH2_REFRESH_TOKEN: Geben Sie ein OAuth2-Aktualisierungszugriffstoken an. Legen Sie OAuth2-Clientanmeldeinformationen mit GS_OAUTH2_CLIENT_ID und GS_OAUTH2_CLIENT_SECRET fest.
    • GOOGLE_APPLICATION_CREDENTIALS: Geben Sie die Anmeldeinformationen für das Service-Konto OAuth2 in Form einer .json-Datei an, die einen privaten Schlüssel und eine Client-E-Mail-Adresse enthält.
    • GS_OAUTH2_ PRIVATE_KEY: Geben Sie die Anmeldeinformationen für das Service-Konto OAuth2 in Form eines privaten Schlüssels in einer Zeichenfolge an. GS_AUTH2_CLIENT_EMAIL muss festgelegt sein.
    • GS_OAUTH2_ PRIVATE_KEY_FILE: Geben Sie die Anmeldeinformationen für das Service-Konto OAuth2 in Form eines privaten Schlüssels in einer Datei an. GS_AUTH2_CLIENT_EMAIL muss festgelegt sein.
    • GS_AUTH2_CLIENT_EMAIL: Geben Sie die Anmeldeinformationen für das Service-Konto OAuth2 in Form einer Client-E-Mail-Adresse an.
    • GS_AUTH2_SCOPE: Geben Sie den Umfang für das Service-Konto OAuth2 an. Gültige Werte sind https://www.googleapis.com/auth/devstorage.read_write (Standard) und https://www.googleapis.com/auth/devstorage.read_only.
    • GDAL_HTTP_HEADER_FILE: Geben Sie die in einer externen Datei gespeicherten Anmeldeinformationen für die Bearerauthentifizierung an.
  • Alibaba
    • OSS_Virtual_Hosting (Standardeinstellung: True): Wenn Sie Alibaba oder mit S3 kompatible Cloud-Provider verwenden, die nur pfadabhängige Anforderungen unterstützen, müssen Sie diese Option auf "True" setzen. Die Verwendung von virtuellem Hosting wird empfohlen, sofern es unterstützt wird.
    • OSS_HTTPS (Standardeinstellung: True): Setzen Sie diese Option auf "False", um HTTP-Anforderungen zu verwenden. Einige Server sind möglicherweise so konfiguriert, dass sie ausschließlich HTTPS-Anforderungen unterstützen.
  • WebHDFS
    • WEBHDFS_REPLICATION (ganze Zahl): Dieser Replikationswert wird beim Erstellen einer Datei verwendet.
    • WEBHDFS_PERMISSION (Dezimalzahl): Beim Erstellen einer Datei wird eine Berechtigungsmaske verwendet.

Wenn mehrere Authentifizierungsparameter bereitgestellt werden, gilt diese Rangfolge:

  • Azure: AZURE_STORAGE_CONNECTION_STRING, Kontoname oder Schlüssel, AZURE_SAS, AZURE_NO_SIGN_REQUEST, RBAC.
  • Amazon: AWS_NO_SIGN_REQUEST, Zugriffs-ID oder Schlüssel oder AWS_SESSION_TOKEN, AWS-Anmeldeprofil, IAM-Rolle.
  • Google: GS_NO_SIGN_REQUEST, Zugriffs-ID oder Zugriffsschlüssel, GDAL_HTTP_HEADER_FILE, (GS_OAUTH2_REFRESH_TOKEN or GS_OAUTH2_CLIENT_ID and GS_OAUTH2_CLIENT_SECRET), GOOGLE_APPLICATION_CREDENTIALS, (GS_OAUTH2_PRIVATE_KEY or GS_OAUTH2_CLIENT_EMAIL), (GS_OAUTH2_PRIVATE_KEY_FILE or GS_OAUTH2_CLIENT_EMAIL) oder IAM Role.
  • Ozone
    • AWS_DEFAULT_PROFILE: AWS-Anmeldeprofile werden automatisch verwendet, wenn der Zugriffsschlüssel oder die ID fehlt. Diese Option kann verwendet werden, um das zu verwendende Profil anzugeben.
    • AWS_Virtual_Hosting (Standardeinstellung: True): Wenn Sie Amazon S3 oder mit S3 kompatible Cloud-Provider verwenden, die nur pfadabhängige Anforderungen unterstützen, müssen Sie diese Option auf "True" setzen. Die Verwendung von virtuellem Hosting wird empfohlen, sofern es unterstützt wird.
    • AWS_HTTPS (Standardeinstellung: True): Setzen Sie diese Option auf "False", um HTTP-Anforderungen zu verwenden. Einige Server sind möglicherweise so konfiguriert, dass sie ausschließlich HTTPS-Anforderungen unterstützen.
    • CPL_VSIS3_USE_BASE_RMDIR_RECURSIVE (Standardeinstellung: True): Einige ältere mit S3 kompatible Implementierungen unterstützen den Vorgang für gleichzeitiges Löschen nicht. Setzen Sie diese Option bei diesen Providern auf "False".
    • x-amz-storage-class: Geben Sie REDUCED_REDUNDANCY an, damit in einen einzelnen Ozone-Container geschrieben wird, da der Container über nur einen Datenknoten verfügt.

Zusätzlich zu den oben aufgeführten Provider-Optionen kann die Option ARC_DEEP_CRAWL (Standardeinstellung: True) mit allen Service-Providern verwendet werden. Bei "True" werden mit dieser Option CRF-Dateien ohne Erweiterung und cloudfähige Raster-Produkte in der Cloud identifiziert. Da dies ein kostenintensiver Vorgang ist, sollten Sie diese Option auf "False" setzen, um das Durchsuchen des Katalogs und das Durchforsten zu beschleunigen.

Value Table
folder
(optional)

Der im Parameterwert bucket_name angegebene Ordner, in dem das Raster-Dataset gespeichert wird.

String

Abgeleitete Ausgabe

NameErläuterungDatentyp
out_connection

Der Ausgabepfad der Cloud-Speicherverbindungsdatei.

File

Codebeispiel

CreateCloudStorageConnectionFile – Beispiel 1 (Python-Fenster)

Dies ist ein Python-Beispiel für die Funktion CreateCloudStorageConnectionFile.

#====================================
# CreateCloudStorageConnectionFile
# Usage:
# arcpy.management.CreateCloudStorageConnectionFile(
#     out_folder_path, out_name, AZURE | AMAZON | GOOGLE | ALIBABA, bucket_name,
#     {access_key_id}, {secret_access_key}, {region}, {end_point},
#     { {Name} {Value}; {Name} {Value}...})
# arcpy.management.CreateCloudStorageConnectionFile(
#     out_folder_path, out_name, AZURE | AMAZON | GOOGLE | ALIBABA, bucket_name,
#     {access_key_id}, {secret_access_key}, {region}, {end_point},
#     {config_options})

import arcpy

# Create connection to open public bucket with requester pay option
arcpy.management.CreateCloudStorageConnectionFile(
    "C:/Workspace/connections", "awss3storage.acs", "AMAZON", "publicrasterstore",
    config_options="AWS_REQUEST_PAYER requester")

# Create connection to secured Azure bucket
arcpy.management.CreateCloudStorageConnectionFile(
    "C:/Workspace/connections", "azurestorage.acs", "AZURE", "rasterstore", "imageaccount",
    "NOGEOU1238987OUOUNOQEWQWEIO")

# Create Alibaba connection with end points
arcpy.management.CreateCloudStorageConnectionFile(
    "C:/Workspace/connections", "aliyun.acs", "ALIBABA", "rasterstore", "AYOUER9273PJJNY",
"NOGEOU1238987OUOUNOQEWQWEIO", end_point="rasterstore.oss-us-west-1.aliyuncs.com")
CreateCloudStorageConnectionFile – Beispiel 2 (eigenständiges Skript)

Dies ist ein Python-Beispiel für die Funktion CreateCloudStorageConnectionFile.

#====================================
# CreateCloudStorageConnectionFile
# Usage:
# arcpy.management.CreateCloudStorageConnectionFile(
#     out_folder_path, out_name, AZURE | AMAZON | GOOGLE | ALIBABA, bucket_name,
#     {access_key_id}, {secret_access_key}, {region}, {end_point},
#     { {Name} {Value}; {Name} {Value}...})
# arcpy.management.CreateCloudStorageConnectionFile(
#     out_folder_path, out_name, AZURE | AMAZON | GOOGLE | ALIBABA, bucket_name,
#     {access_key_id}, {secret_access_key}, {region}, {end_point},
#     {config_options})

import arcpy

outfolder = "C:/Workspace/connections"
connectname = "googlecloudos.acs"
provider = "GOOGLE"
accesskey = "AYOUER9273PJJNY"
secretkey = "NOGEOU1238987OUOUNOQEWQWEIO"
bucketname = "rasterstore"

# Create connection to Google cloud object storage
arcpy.management.CreateCloudStorageConnectionFile(
outfolder, connectname, provider, bucketname, accesskey, secretkey)

Umgebungen

Dieses Werkzeug verwendet keine Geoverarbeitungsumgebungen.

Lizenzinformationen

  • Basic: Ja
  • Standard: Ja
  • Advanced: Ja

Verwandte Themen