Etiqueta | Explicación | Tipo de datos |
Ráster de entrada | Las imágenes de origen de entrada, normalmente imágenes multiespectrales. Ejemplos del tipo de imagen de origen de entrada son: satélite, tomada por drones, aérea y del Programa Nacional de Imágenes Agrícolas (NAIP), todas ellas multiespectrales. La entrada puede ser una carpeta de imágenes. | Raster Dataset; Raster Layer; Mosaic Layer; Image Service; Map Server; Map Server Layer; Internet Tiled Layer; Folder |
Carpeta de salida | La carpeta en la que se almacenarán los chips de imagen de salida y los metadatos. La carpeta también puede ser una URL de carpeta que utiliza un archivo de conexión a un almacenamiento en la nube (*.acs). | Folder |
Ráster clasificado o clase de entidad de entrada o tabla | Los datos de muestra de entrenamiento en formato vectorial o ráster. Las entradas vectoriales deben seguir un formato de muestra de entrenamiento como el generado con el panel Administrador de muestras de entrenamiento. Las entradas de ráster deben seguir un formato de ráster clasificado generado por la herramienta Clasificar ráster. La entrada de ráster también puede proceder de una carpeta de rásteres clasificados. Las tablas de entrada deben seguir un formato de muestra de entrenamiento generado por la herramienta Etiquetar objetos para aprendizaje profundo en el panel Administrador de muestras de entrenamiento. Al seguir un formato de muestra de entrenamiento adecuado, se obtienen resultados óptimos con la información estadística; sin embargo, la entrada también puede ser una clase de entidad de puntos que no tiene un campo de valor de clase, o bien un ráster entero sin ninguna información de clase. | Feature Class; Feature Layer; Raster Dataset; Raster Layer; Mosaic Layer; Image Service; Table; Folder |
Formato de imagen | Especifica el formato de ráster que se utilizará para las salidas de chips de imagen. Los formatos PNG y JPEG admiten hasta tres bandas.
| String |
Tamaño de tesela X (Opcional) | El tamaño de los chips de imagen para la dimensión x. | Long |
Tamaño de tesela Y (Opcional) | El tamaño de los chips de imagen para la dimensión y. | Long |
Paso X (Opcional) | La distancia a la que se desplaza la dirección x al crear los siguientes chips de imagen. Cuando el paso equivale al tamaño de la tesela, no habrá ninguna superposición. Cuando el paso equivale a la mitad del tamaño de la tesela, habrá una superposición del 50 por ciento. | Long |
Paso Y (Opcional) | La distancia a la que se desplaza la dirección y al crear los siguientes chips de imagen. Cuando el paso equivale al tamaño de la tesela, no habrá ninguna superposición. Cuando el paso equivale a la mitad del tamaño de la tesela, habrá una superposición del 50 por ciento. | Long |
Salida de teselas sin entidades (Opcional) | Especifica si se exportarán los chips de imagen que no capturen muestras de entrenamiento.
Si se activa, también se exportarán los chips de imagen que no capturen datos etiquetados; si no se activa, no se exportarán. | Boolean |
Formato de metadatos (Opcional) | Especifica el formato que se utilizará para las etiquetas de metadatos de salida. Si los datos de muestra de entrenamiento de entrada son una capa de clase de entidad, como por ejemplo una capa de edificios o un archivo de muestra de entrenamiento de clasificación estándar, utilice la opción Etiquetas KITTI o PASCAL Visual Object Classes (KITTI_rectangles o PASCAL_VOC_rectangles en Python). Los metadatos de salida son un archivo .txt o un archivo .xml que contiene los datos de muestra de entrenamiento incluidos en el rectángulo mínimo de delimitación. El nombre del archivo de metadatos coincide con el nombre de la imagen de origen de entrada. Si los datos de muestra de entrenamiento de entrada son un mapa de clase, utilice la opción Teselas clasificadas (Classified_Tiles en Python) como formato de metadatos de salida. El formato de metadatos KITTI permite 15 columnas, pero solo se utilizan 5 de ellas en la herramienta. La primera columna es el valor de clase. Las siguientes 3 columnas se omiten. Las columnas 5 a 8 definen el rectángulo mínimo de delimitación, que consta de cuatro ubicaciones de coordenada de imagen: píxeles izquierdo, superior, derecho e inferior. El rectángulo mínimo de delimitación comprende el chip de formación utilizado en el clasificador de aprendizaje profundo. Las columnas restantes no se utilizan.
| String |
Índice inicial (Opcional) | Heredado:Este parámetro ha quedado obsoleto. | Long |
Campo de valor de clase (Opcional) | El campo que contiene los valores de clase. Si no se especifica ningún campo, el sistema busca un campo value o classvalue. Si la entidad no contiene un campo de clase, el sistema determina que todos los registros pertenecen a una clase. | Field |
Radio de zona de influencia (Opcional) | El radio de una zona de influencia alrededor de cada muestra de entrenamiento que se utilizará para delinear un área de muestra de entrenamiento. Le permite crear muestras de entrenamiento poligonales circulares a partir de puntos. Se utiliza la unidad lineal de la referencia espacial del valor del parámetro Clase de entidad de entrada o ráster clasificado o tabla. | Double |
Polígonos de máscara de entrada (Opcional) | Una clase de entidad poligonal que delinea el área en la que se crearán los chips de imagen. Solo se crean los chips de imagen que recaen completamente dentro de los polígonos. | Feature Layer |
Ángulo de rotación (Opcional) | El ángulo de rotación que se utilizará para generar chips de imagen adicionales. Se genera un chip de imagen con un ángulo de rotación de 0, lo que significa ninguna rotación. A continuación, se girará en el ángulo especificado para crear un chip de imagen adicional. Las mismas muestras de entrenamiento se capturan en múltiples ángulos de múltiples chips de imágenes para el aumento de datos. El ángulo de rotación predeterminado es 0. | Double |
Sistema de Referencia (Opcional) | Especifica el tipo de sistema de referencia que se usará para interpretar la imagen de entrada. El sistema de referencia especificado debe coincidir con el sistema de referencia utilizado para entrenar el modelo de aprendizaje profundo.
| String |
Modo de procesamiento (Opcional) | Especifica cómo se procesarán todos los elementos de ráster en un dataset de mosaico o un servicio de imágenes. Este parámetro se aplica si el ráster de entrada es un dataset de mosaico o un servicio de imágenes.
| String |
Oscurecer alrededor de entidad (Opcional) | Especifica si se ocultarán los píxeles situados alrededor de cada objeto o entidad de cada tesela de imagen. Este parámetro solo se aplica si el parámetro Formato de metadatos tiene el valor Teselas etiquetadas y se ha especificado una clase de entidad de entrada o un ráster clasificado.
| Boolean |
Modo de cultivo (Opcional) | Especifica si las teselas exportadas se deben recortar de forma que todas tengan el mismo tamaño. Este parámetro solo se aplica si el parámetro Formato de metadatos tiene el valor Teselas etiquetadas o bien ImageNet y se ha especificado una clase de entidad de entrada o un ráster clasificado.
| String |
Ráster de entrada adicional (Opcional) | Una fuente de imágenes de entrada adicional que se usará para los métodos de traslación de imágenes. Este parámetro es válido cuando el parámetro Formato de metadatos se establece en Teselas clasificadas, Teselas de exportación o CycleGAN. | Raster Dataset; Raster Layer; Mosaic Layer; Image Service; Map Server; Map Server Layer; Internet Tiled Layer; Folder |
Clase de entidad de instancia (Opcional) | Los datos de muestras de entrenamiento capturados que contienen clases para la segmentación de instancias. La entrada también puede ser una clase de entidad de punto sin un campo de valor de clase o un ráster entero sin ninguna información de clase. Este parámetro solo es válido cuando el parámetro Formato de metadatos está establecido en Segmentación panóptica. | Feature Class; Feature Layer; Raster Dataset; Raster Layer; Mosaic Layer; Image Service; Table; Folder |
Campo de valor de clase de instancia (Opcional) | El campo que contiene los valores de clase para la segmentación de instancias. Si no se especifica ningún campo, la herramienta utilizará un campo de valor o valor de clase, si lo hubiera. Si la entidad no contiene un campo de clase, la herramienta determinará que todos los registros pertenecen a una clase. Este parámetro solo es válido cuando el parámetro Formato de metadatos está establecido en Segmentación panóptica. | Field |
Ratio de superposición mínimo entre polígonos (Opcional) | El porcentaje de superposición mínimo para que una entidad se incluya en los datos de entrenamiento. Si el porcentaje de superposición es menor que el valor especificado, la entidad se excluirá del chip de entrenamiento y no se agregará al archivo de etiquetas. El valor porcentual se expresa como un decimal. Por ejemplo, para especificar una superposición del 20 por ciento, utilice un valor de 0,2. El valor predeterminado es 0, lo que significa que se incluirán todas las entidades. Este parámetro mejora el rendimiento de la herramienta y también mejora la inferencia. La velocidad mejora porque se crean menos chips de entrenamiento. La inferencia mejora porque el modelo se entrena para detectar solamente parches grandes de objetos e ignora pequeñas esquinas de entidades. Esto significa que se detectarán menos falsos positivos y que la herramienta Supresión no máxima eliminará menos falsos positivos. Este parámetro está activo cuando el valor del parámetro Clase de entidad de entrada o ráster clasificado o tabla es una clase de entidad. | Double |
Disponible con una licencia de Spatial Analyst.
Disponible con licencia de Image Analyst.
Resumen
Convierte los datos de vectores o datos ráster etiquetados en datasets de entrenamiento de aprendizaje profundo utilizando imágenes de teledetección. La salida será una carpeta de chips de imagen y una carpeta de archivos de metadatos en el formato especificado.
Uso
Esta herramienta crea datasets de entrenamiento para admitir aplicaciones de aprendizaje profundo de terceros, como Google TensorFlow, Keras, PyTorch y Microsoft CNTK.
Las muestras de entrenamiento de aprendizaje profundo se basan en pequeñas subimágenes, llamadas chips de imágenes, que contienen la entidad o clase de interés.
Utilice sus datos de muestras de entrenamiento de clasificación actuales o datos de clase de entidad SIG, como por ejemplo una capa de huellas de edificios, para generar chips de imagen que contengan la muestra de clase de la imagen de origen. Los chips de imagen con frecuencia son filas de 256 píxeles por columnas de 256 píxeles, a menos que el tamaño de la muestra de entrenamiento sea más grande. Cada chip de imagen puede contener uno o varios objetos. Si se utiliza el formato de metadatos de parámetros Teselas etiquetadas, solo puede haber un objeto por cada chip de imagen.
Al especificar el valor de parámetro Sistema de referencia, los datos de entrenamiento se pueden exportar al espacio de mapa o espacio de píxeles (espacio de imagen sin formato) que se desea utilizar para el entrenamiento del modelo de aprendizaje profundo.
Esta herramienta admite la exportación de datos de entrenamiento desde una colección de imágenes. Es posible agregar una carpeta de imágenes como valor Ráster de entrada. Si el valor Ráster de entrada es un dataset de mosaico o un servicio de imágenes, también puede especificar que el parámetro Modo de procesamiento procese el mosaico como una entrada o cada elemento de ráster por separado.
El tamaño de celda y la extensión se pueden ajustar con la configuración del entorno de geoprocesamiento.
Esta herramienta respeta el ajuste de entorno Factor de procesamiento en paralelo. De forma predeterminada, el Factor de procesamiento en paralelo no está habilitado; en consecuencia, la herramienta se ejecutará en un solo núcleo. Cuando se utilizan grandes datasets, habilite el Factor de procesamiento en paralelo especificando la cantidad de núcleos que la herramienta puede usar para distribuir la carga de trabajo.
Para obtener información sobre los requisitos para ejecutar esta herramienta y los problemas que pueden presentarse, consulte Preguntas frecuentes sobre el aprendizaje profundo.
Parámetros
ExportTrainingDataForDeepLearning(in_raster, out_folder, in_class_data, image_chip_format, {tile_size_x}, {tile_size_y}, {stride_x}, {stride_y}, {output_nofeature_tiles}, {metadata_format}, {start_index}, {class_value_field}, {buffer_radius}, {in_mask_polygons}, {rotation_angle}, {reference_system}, {processing_mode}, {blacken_around_feature}, {crop_mode}, {in_raster2}, {in_instance_data}, {instance_class_value_field}, {min_polygon_overlap_ratio})
Nombre | Explicación | Tipo de datos |
in_raster | Las imágenes de origen de entrada, normalmente imágenes multiespectrales. Ejemplos del tipo de imagen de origen de entrada son: satélite, tomada por drones, aérea y del Programa Nacional de Imágenes Agrícolas (NAIP), todas ellas multiespectrales. La entrada puede ser una carpeta de imágenes. | Raster Dataset; Raster Layer; Mosaic Layer; Image Service; Map Server; Map Server Layer; Internet Tiled Layer; Folder |
out_folder | La carpeta en la que se almacenarán los chips de imagen de salida y los metadatos. La carpeta también puede ser una URL de carpeta que utiliza un archivo de conexión a un almacenamiento en la nube (*.acs). | Folder |
in_class_data | Los datos de muestra de entrenamiento en formato vectorial o ráster. Las entradas vectoriales deben seguir un formato de muestra de entrenamiento como el generado con el panel Administrador de muestras de entrenamiento. Las entradas de ráster deben seguir un formato de ráster clasificado generado por la herramienta Clasificar ráster. La entrada de ráster también puede proceder de una carpeta de rásteres clasificados. Las tablas de entrada deben seguir un formato de muestra de entrenamiento generado por la herramienta Etiquetar objetos para aprendizaje profundo en el panel Administrador de muestras de entrenamiento. Al seguir un formato de muestra de entrenamiento adecuado, se obtienen resultados óptimos con la información estadística; sin embargo, la entrada también puede ser una clase de entidad de puntos que no tiene un campo de valor de clase, o bien un ráster entero sin ninguna información de clase. | Feature Class; Feature Layer; Raster Dataset; Raster Layer; Mosaic Layer; Image Service; Table; Folder |
image_chip_format | Especifica el formato de ráster que se utilizará para las salidas de chips de imagen. Los formatos PNG y JPEG admiten hasta tres bandas.
| String |
tile_size_x (Opcional) | El tamaño de los chips de imagen para la dimensión x. | Long |
tile_size_y (Opcional) | El tamaño de los chips de imagen para la dimensión y. | Long |
stride_x (Opcional) | La distancia a la que se desplaza la dirección x al crear los siguientes chips de imagen. Cuando el paso equivale al tamaño de la tesela, no habrá ninguna superposición. Cuando el paso equivale a la mitad del tamaño de la tesela, habrá una superposición del 50 por ciento. | Long |
stride_y (Opcional) | La distancia a la que se desplaza la dirección y al crear los siguientes chips de imagen. Cuando el paso equivale al tamaño de la tesela, no habrá ninguna superposición. Cuando el paso equivale a la mitad del tamaño de la tesela, habrá una superposición del 50 por ciento. | Long |
output_nofeature_tiles (Opcional) | Especifica si se exportarán los chips de imagen que no capturen muestras de entrenamiento.
| Boolean |
metadata_format (Opcional) | Especifica el formato que se utilizará para las etiquetas de metadatos de salida. Si los datos de muestra de entrenamiento de entrada son una capa de clase de entidad, como por ejemplo una capa de edificios o un archivo de muestra de entrenamiento de clasificación estándar, utilice la opción Etiquetas KITTI o PASCAL Visual Object Classes (KITTI_rectangles o PASCAL_VOC_rectangles en Python). Los metadatos de salida son un archivo .txt o un archivo .xml que contiene los datos de muestra de entrenamiento incluidos en el rectángulo mínimo de delimitación. El nombre del archivo de metadatos coincide con el nombre de la imagen de origen de entrada. Si los datos de muestra de entrenamiento de entrada son un mapa de clase, utilice la opción Teselas clasificadas (Classified_Tiles en Python) como formato de metadatos de salida.
El formato de metadatos KITTI permite 15 columnas, pero solo se utilizan 5 de ellas en la herramienta. La primera columna es el valor de clase. Las siguientes 3 columnas se omiten. Las columnas 5 a 8 definen el rectángulo mínimo de delimitación, que consta de cuatro ubicaciones de coordenada de imagen: píxeles izquierdo, superior, derecho e inferior. El rectángulo mínimo de delimitación comprende el chip de formación utilizado en el clasificador de aprendizaje profundo. Las columnas restantes no se utilizan. A continuación, encontrará un ejemplo de opción PASCAL_VOC_rectangles: Para obtener más información, consulte PASCAL Visual Object Classes. | String |
start_index (Opcional) | Heredado:Este parámetro ha quedado obsoleto. Utilice un valor de 0 o # en Python. | Long |
class_value_field (Opcional) | El campo que contiene los valores de clase. Si no se especifica ningún campo, el sistema busca un campo value o classvalue. Si la entidad no contiene un campo de clase, el sistema determina que todos los registros pertenecen a una clase. | Field |
buffer_radius (Opcional) | El radio de una zona de influencia alrededor de cada muestra de entrenamiento que se utilizará para delinear un área de muestra de entrenamiento. Le permite crear muestras de entrenamiento poligonales circulares a partir de puntos. Se utiliza la unidad lineal de la referencia espacial del valor del parámetro in_class_data. | Double |
in_mask_polygons (Opcional) | Una clase de entidad poligonal que delinea el área en la que se crearán los chips de imagen. Solo se crean los chips de imagen que recaen completamente dentro de los polígonos. | Feature Layer |
rotation_angle (Opcional) | El ángulo de rotación que se utilizará para generar chips de imagen adicionales. Se genera un chip de imagen con un ángulo de rotación de 0, lo que significa ninguna rotación. A continuación, se girará en el ángulo especificado para crear un chip de imagen adicional. Las mismas muestras de entrenamiento se capturan en múltiples ángulos de múltiples chips de imágenes para el aumento de datos. El ángulo de rotación predeterminado es 0. | Double |
reference_system (Opcional) | Especifica el tipo de sistema de referencia que se usará para interpretar la imagen de entrada. El sistema de referencia especificado debe coincidir con el sistema de referencia utilizado para entrenar el modelo de aprendizaje profundo.
| String |
processing_mode (Opcional) | Especifica cómo se procesarán todos los elementos de ráster en un dataset de mosaico o un servicio de imágenes. Este parámetro se aplica si el ráster de entrada es un dataset de mosaico o un servicio de imágenes.
| String |
blacken_around_feature (Opcional) | Especifica si se ocultarán los píxeles situados alrededor de cada objeto o entidad de cada tesela de imagen. Este parámetro solo se aplica si el parámetro metadata_format tiene el valor Labeled_Tiles y se ha especificado una clase de entidad de entrada o un ráster clasificado.
| Boolean |
crop_mode (Opcional) | Especifica si las teselas exportadas se deben recortar de forma que todas tengan el mismo tamaño. Este parámetro solo se aplica si el parámetro metadata_format tiene el valor Labeled_Tiles o bien Imagenet y se ha especificado una clase de entidad de entrada o un ráster clasificado.
| String |
in_raster2 (Opcional) | Una fuente de imágenes de entrada adicional que se usará para los métodos de traslación de imágenes. Este parámetro es válido cuando el parámetro metadata_format está establecido en Classified_Tiles, Export_Tiles o CycleGAN. | Raster Dataset; Raster Layer; Mosaic Layer; Image Service; Map Server; Map Server Layer; Internet Tiled Layer; Folder |
in_instance_data (Opcional) | Los datos de muestras de entrenamiento capturados que contienen clases para la segmentación de instancias. La entrada también puede ser una clase de entidad de punto sin un campo de valor de clase o un ráster entero sin ninguna información de clase. Este parámetro solo es válido cuando el parámetro metadata_format se establece en Panoptic_Segmentation. | Feature Class; Feature Layer; Raster Dataset; Raster Layer; Mosaic Layer; Image Service; Table; Folder |
instance_class_value_field (Opcional) | El campo que contiene los valores de clase para la segmentación de instancias. Si no se especifica ningún campo, la herramienta utilizará un campo de valor o valor de clase, si lo hubiera. Si la entidad no contiene un campo de clase, la herramienta determinará que todos los registros pertenecen a una clase. Este parámetro solo es válido cuando el parámetro metadata_format se establece en Panoptic_Segmentation. | Field |
min_polygon_overlap_ratio (Opcional) | El porcentaje de superposición mínimo para que una entidad se incluya en los datos de entrenamiento. Si el porcentaje de superposición es menor que el valor especificado, la entidad se excluirá del chip de entrenamiento y no se agregará al archivo de etiquetas. El valor porcentual se expresa como un decimal. Por ejemplo, para especificar una superposición del 20 por ciento, utilice un valor de 0,2. El valor predeterminado es 0, lo que significa que se incluirán todas las entidades. Este parámetro mejora el rendimiento de la herramienta y también mejora la inferencia. La velocidad mejora porque se crean menos chips de entrenamiento. La inferencia mejora porque el modelo se entrena para detectar solamente parches grandes de objetos e ignora pequeñas esquinas de entidades. Esto significa que se detectarán menos falsos positivos y que la herramienta Supresión no máxima eliminará menos falsos positivos. Este parámetro está habilitado cuando el valor del parámetro in_class_data es una clase de entidad. | Double |
Muestra de código
En este ejemplo se crean muestras de entrenamiento para aprendizaje profundo.
# Import system modules
import arcpy
from arcpy.ia import *
# Check out the ArcGIS Image Analyst extension license
arcpy.CheckOutExtension("ImageAnalyst")
ExportTrainingDataForDeepLearning("c:/test/image.tif", "c:/test/outfolder",
"c:/test/training.shp", "TIFF", "256", "256", "128", "128",
"ONLY_TILES_WITH_FEATURES", "Labeled_Tiles", 0, "Classvalue",
0, None, 0, "MAP_SPACE", "PROCESS_AS_MOSAICKED_IMAGE", "NO_BLACKEN", "FIXED_SIZE")
En este ejemplo se crean muestras de entrenamiento para aprendizaje profundo.
# Import system modules and check out ArcGIS Image Analyst extension license
import arcpy
arcpy.CheckOutExtension("ImageAnalyst")
from arcpy.ia import *
# Set local variables
inRaster = "c:/test/InputRaster.tif"
out_folder = "c:/test/OutputFolder"
in_training = "c:/test/TrainingData.shp"
image_chip_format = "TIFF"
tile_size_x = "256"
tile_size_y = "256"
stride_x= "128"
stride_y= "128"
output_nofeature_tiles= "ONLY_TILES_WITH_FEATURES"
metadata_format= "Labeled_Tiles"
start_index = 0
classvalue_field = "Classvalue"
buffer_radius = 0
in_mask_polygons = "MaskPolygon"
rotation_angle = 0
reference_system = "PIXEL_SPACE"
processing_mode = "PROCESS_AS_MOSAICKED_IMAGE"
blacken_around_feature = "NO_BLACKEN"
crop_mode = “FIXED_SIZE”
# Execute
ExportTrainingDataForDeepLearning(inRaster, out_folder, in_training,
image_chip_format,tile_size_x, tile_size_y, stride_x,
stride_y,output_nofeature_tiles, metadata_format, start_index,
classvalue_field, buffer_radius, in_mask_polygons, rotation_angle,
reference_system, processing_mode, blacken_around_feature, crop_mode)
Entornos
Información de licenciamiento
- Basic: Requiere Image Analyst o Spatial Analyst
- Standard: Requiere Image Analyst o Spatial Analyst
- Advanced: Requiere Image Analyst o Spatial Analyst
Temas relacionados
- Descripción general del conjunto de herramientas Clasificación y reconocimiento de patrones
- Buscar una herramienta de geoprocesamiento
- Descripción general del conjunto de herramientas Aprendizaje profundo
- Instalar marcos de aprendizaje profundo para ArcGIS
- Entrenar un modelo de aprendizaje profundo
- Modelos de aprendizaje profundo
- Clasificar objetos con aprendizaje profundo
- Clasificar píxeles con aprendizaje profundo
- Detectar objetos con aprendizaje profundo