Entrenar modelo de reconocimiento de entidades (GeoAI)

Resumen

Entrena un modelo de reconocimiento de entidades con nombre para extraer un conjunto predefinido de entidades de texto sin procesar.

Más información sobre cómo funciona Reconocimiento de entidades

Uso

  • Esta herramienta requiere la instalación de marcos de aprendizaje profundo. Para configurar su equipo para usar marcos de aprendizaje profundo en ArcGIS Pro, consulte Instalar marcos de aprendizaje profundo para ArcGIS.

  • Esta herramienta también se puede utilizar para ajustar un modelo entrenado existente.

  • Para ejecutar esta herramienta con la GPU, configure el entorno Tipo de procesador en GPU. Si tiene más de una GPU, especifique el entorno de Id. de GPU en su lugar.

  • La entrada a la herramienta es una carpeta que contiene archivos .json o .csv.

  • Para obtener información sobre los requisitos para ejecutar esta herramienta y los problemas que pueden presentarse, consulte Preguntas frecuentes sobre el aprendizaje profundo.

Parámetros

EtiquetaExplicaciónTipo de datos
Carpeta de entrada

Carpeta que contiene datos de entrenamiento en forma de datasets estándar para tareas NER. Los datos de entrenamiento deben estar en archivos .json o .csv. El formato de archivo determina el tipo de dataset de la entrada.

Estos son los tipos de dataset admitidos:

  • ner_json: la carpeta de datos de entrenamiento debe contener un archivo .json con texto y las entidades etiquetadas con el formato de entrenamiento JSON de spaCy.
  • IOB: el formato IOB (etiquetas interiores –I, del inglés "inside"–, exteriores –O, del inglés "outside"– e iniciales –B, del inglés "beginning"–) propuesto por Ramshaw y Marcus en el ensayo "Text Chunking using Transformation-Based Learning".

    La carpeta de datos de entrenamiento debe contener estos dos archivos .csv:

    • token.csv: contiene texto como fragmentos de entrada.
    • tags.csv: contiene etiquetas IOB para los fragmentos de texto.
  • BILUO: extensión del formato IOB que contiene además etiquetas finales –L, del inglés "last"– y de unidad –U, del inglés "unit"–.

    La carpeta de datos de entrenamiento debe contener estos dos archivos .csv:

    • token.csv: contiene texto como fragmentos de entrada.
    • tags.csv: contiene etiquetas BILUO para los fragmentos de texto.

Folder
Modelo de salida

Ubicación de la carpeta de salida en la que se almacenará el modelo entrenado.

Folder
Archivo de modelo preentrenado
(Opcional)

Modelo previamente entrenado que se utilizará para ajustar con precisión el nuevo modelo. La entrada puede ser un archivo de definición de modelo de Esri (.emd) o un archivo de paquete de aprendizaje profundo (.dlpk).

Es posible ajustar un modelo previamente entrenado con entidades similares para que se adapte al nuevo modelo. El modelo previamente entrenado se debe haber entrenado con el mismo tipo de modelo y el mismo modelo de base que se utilizará para entrenar el nuevo modelo.

File
Entidad de dirección
(Opcional)

La entidad de dirección se tratará como una ubicación. Durante la inferencia, dichas entidades se geocodificarán con el localizador especificado y se producirá una clase de entidad como resultado del proceso de extracción de entidades. Si no se proporciona un localizador o el modelo entrenado no extrae entidades de dirección, se generará en su lugar una tabla con las entidades extraídas.

String
Máximo de épocas
(Opcional)

Número máximo de épocas para las que se entrenará el modelo. Un valor de época máxima de 1 significa que el dataset se enviará hacia delante y hacia atrás a través de la red neuronal una vez. El valor predeterminado es 5.

Long
Base del modelo
(Opcional)

Especifica la red neuronal preconfigurada que se usará como arquitectura para entrenar el nuevo modelo.

  • bert-base-casedEl modelo se entrenará con la red neuronal BERT. BERT está preentrenado con el objetivo de modelado del lenguaje enmascarado y la siguiente predicción de frase.
  • roberta-baseEl modelo se entrenará con la red neuronal RoBERTa. RoBERTa modifica los hiperparámetros clave de BERT, eliminando el objetivo de preentrenamiento y la formación de la siguiente frase con pequeños lotes y tasas de aprendizaje más altas.
  • albert-base-v1El modelo se entrenará con la red neuronal ALBERT. ALBERT utiliza una pérdida autosupervisada que se centra en modelar coherencia entre frases, lo que resulta en una mejor escalabilidad que BERT.
  • xlnet-base-casedEl modelo se entrenará con la red neuronal XLNet. XLNet es un método de preentrenamiento autorregresivo generalizado. Permite aprender contextos bidireccionales maximizando la probabilidad esperada en todas las permutaciones del orden de factorización, que superan las desventajas de BERT.
  • xlm-roberta-baseEl modelo se entrenará con la red neuronal XLM-RoBERTa. XLM-RoBERTa es un modelo multilingüe entrenado en 100 lenguajes diferentes. A diferencia de algunos modelos multilingües de XLM, no requiere que los tensores de lenguaje comprendan el lenguaje que se utiliza e identifica el lenguaje correcto de los Id. de entrada.
  • distilroberta-baseDistilRoBERTa es un modelo de idioma inglés preentrenado con la supervisión de roberta-base tan solo en OpenWebTextCorpus, una reproducción del dataset WebText de OpenAI.
  • distilbert-base-casedEl modelo se entrenará con la red neuronal DistilBERT. DistilBERT es un modelo de representación de lenguaje de propósito general más pequeño.
String
Tamaño de lote
(Opcional)

El número de muestras de entrenamiento que se procesarán a la vez. El valor predeterminado es 2.

Aumentar el tamaño de lote puede mejorar el rendimiento de la herramienta; sin embargo, a medida que aumenta el tamaño del lote, se utiliza más memoria. Si se produce un error de memoria insuficiente, utilice un tamaño de lote más pequeño.

Double
Argumentos de modelo
(Opcional)

Argumentos adicionales para inicializar el modelo, como seq_len para la longitud máxima de secuencia de los datos de entrenamiento, que se tendrán en cuenta para entrenar el modelo.

Consulte argumentos de palabra clave en la documentación de EntityRecognizer para obtener la lista de argumentos de modelos compatibles que se pueden utilizar.

Value Table
Tasa de aprendizaje
(Opcional)

El tamaño del paso que indica cuánto se ajustarán las ponderaciones del modelo durante el proceso de entrenamiento. Si no se especifica ningún valor, se deducirá automáticamente una tasa de aprendizaje óptima.

Double
Porcentaje de validación
(Opcional)

Porcentaje de muestras de entrenamiento que se utilizarán para validar el modelo. El valor predeterminado es 10.

Double
Detener cuando el modelo deja de mejorar
(Opcional)

Especifica si el entrenamiento del modelo se detendrá cuando el modelo deje de mejorar o hasta alcanzar el valor del parámetro Máximo de épocas.

  • Activado: el entrenamiento del modelo se detendrá cuando el modelo deje de mejorar, independientemente del valor del parámetro Máximo de épocas especificado. Esta es la opción predeterminada.
  • Desactivado: el entrenamiento del modelo continuará hasta alcanzar el valor del parámetro Máximo de épocas.
Boolean
Hacer que la base del modelo se pueda entrenar
(Opcional)

Especifica si las capas de base del modelo previamente entrenado se inmovilizarán, de modo que los pesos y sesgos permanezcan tal como se diseñaron originalmente.

  • Activado: las capas de base no se inmovilizarán y los pesos y sesgos del valor del parámetro Base del modelo se pueden modificar para adaptarse a las muestras de entrenamiento. Esto tarda más tiempo en procesarse, pero generalmente produce mejores resultados. Esta es la opción predeterminada.
  • Desactivado: las capas de base se inmovilizarán y los pesos y sesgos predefinidos del valor del parámetro Base del modelo no se modificarán durante el entrenamiento.

Boolean

arcpy.geoai.TrainEntityRecognitionModel(in_folder, out_model, {pretrained_model_file}, {address_entity}, {max_epochs}, {model_backbone}, {batch_size}, {model_arguments}, {learning_rate}, {validation_percentage}, {stop_training}, {make_trainable})
NombreExplicaciónTipo de datos
in_folder

Carpeta que contiene datos de entrenamiento en forma de datasets estándar para tareas NER. Los datos de entrenamiento deben estar en archivos .json o .csv. El formato de archivo determina el tipo de dataset de la entrada.

Estos son los tipos de dataset admitidos:

  • ner_json: la carpeta de datos de entrenamiento debe contener un archivo .json con texto y las entidades etiquetadas con el formato de entrenamiento JSON de spaCy.
  • IOB: el formato IOB (etiquetas interiores –I, del inglés "inside"–, exteriores –O, del inglés "outside"– e iniciales –B, del inglés "beginning"–) propuesto por Ramshaw y Marcus en el ensayo "Text Chunking using Transformation-Based Learning".

    La carpeta de datos de entrenamiento debe contener estos dos archivos .csv:

    • token.csv: contiene texto como fragmentos de entrada.
    • tags.csv: contiene etiquetas IOB para los fragmentos de texto.
  • BILUO: extensión del formato IOB que contiene además etiquetas finales –L, del inglés "last"– y de unidad –U, del inglés "unit"–.

    La carpeta de datos de entrenamiento debe contener estos dos archivos .csv:

    • token.csv: contiene texto como fragmentos de entrada.
    • tags.csv: contiene etiquetas BILUO para los fragmentos de texto.

Folder
out_model

Ubicación de la carpeta de salida en la que se almacenará el modelo entrenado.

Folder
pretrained_model_file
(Opcional)

Modelo previamente entrenado que se utilizará para ajustar con precisión el nuevo modelo. La entrada puede ser un archivo de definición de modelo de Esri (.emd) o un archivo de paquete de aprendizaje profundo (.dlpk).

Es posible ajustar un modelo previamente entrenado con entidades similares para que se adapte al nuevo modelo. El modelo previamente entrenado se debe haber entrenado con el mismo tipo de modelo y el mismo modelo de base que se utilizará para entrenar el nuevo modelo.

File
address_entity
(Opcional)

La entidad de dirección se tratará como una ubicación. Durante la inferencia, dichas entidades se geocodificarán con el localizador especificado y se producirá una clase de entidad como resultado del proceso de extracción de entidades. Si no se proporciona un localizador o el modelo entrenado no extrae entidades de dirección, se generará en su lugar una tabla con las entidades extraídas.

String
max_epochs
(Opcional)

Número máximo de épocas para las que se entrenará el modelo. Un valor de época máxima de 1 significa que el dataset se enviará hacia delante y hacia atrás a través de la red neuronal una vez. El valor predeterminado es 5.

Long
model_backbone
(Opcional)

Especifica la red neuronal preconfigurada que se usará como arquitectura para entrenar el nuevo modelo.

  • bert-base-casedEl modelo se entrenará con la red neuronal BERT. BERT está preentrenado con el objetivo de modelado del lenguaje enmascarado y la siguiente predicción de frase.
  • roberta-baseEl modelo se entrenará con la red neuronal RoBERTa. RoBERTa modifica los hiperparámetros clave de BERT, eliminando el objetivo de preentrenamiento y la formación de la siguiente frase con pequeños lotes y tasas de aprendizaje más altas.
  • albert-base-v1El modelo se entrenará con la red neuronal ALBERT. ALBERT utiliza una pérdida autosupervisada que se centra en modelar coherencia entre frases, lo que resulta en una mejor escalabilidad que BERT.
  • xlnet-base-casedEl modelo se entrenará con la red neuronal XLNet. XLNet es un método de preentrenamiento autorregresivo generalizado. Permite aprender contextos bidireccionales maximizando la probabilidad esperada en todas las permutaciones del orden de factorización, que superan las desventajas de BERT.
  • xlm-roberta-baseEl modelo se entrenará con la red neuronal XLM-RoBERTa. XLM-RoBERTa es un modelo multilingüe entrenado en 100 lenguajes diferentes. A diferencia de algunos modelos multilingües de XLM, no requiere que los tensores de lenguaje comprendan el lenguaje que se utiliza e identifica el lenguaje correcto de los Id. de entrada.
  • distilroberta-baseDistilRoBERTa es un modelo de idioma inglés preentrenado con la supervisión de roberta-base tan solo en OpenWebTextCorpus, una reproducción del dataset WebText de OpenAI.
  • distilbert-base-casedEl modelo se entrenará con la red neuronal DistilBERT. DistilBERT es un modelo de representación de lenguaje de propósito general más pequeño.
String
batch_size
(Opcional)

El número de muestras de entrenamiento que se procesarán a la vez. El valor predeterminado es 2.

Aumentar el tamaño de lote puede mejorar el rendimiento de la herramienta; sin embargo, a medida que aumenta el tamaño del lote, se utiliza más memoria. Si se produce un error de memoria insuficiente, utilice un tamaño de lote más pequeño.

Double
model_arguments
[model_arguments,...]
(Opcional)

Argumentos adicionales para inicializar el modelo, como seq_len para la longitud máxima de secuencia de los datos de entrenamiento, que se tendrán en cuenta para entrenar el modelo.

Consulte argumentos de palabra clave en la documentación de EntityRecognizer para obtener la lista de argumentos de modelos compatibles que se pueden utilizar.

Value Table
learning_rate
(Opcional)

El tamaño del paso que indica cuánto se ajustarán las ponderaciones del modelo durante el proceso de entrenamiento. Si no se especifica ningún valor, se deducirá automáticamente una tasa de aprendizaje óptima.

Double
validation_percentage
(Opcional)

Porcentaje de muestras de entrenamiento que se utilizarán para validar el modelo. El valor predeterminado es 10.

Double
stop_training
(Opcional)

Especifica si el entrenamiento del modelo se detendrá cuando el modelo deje de mejorar o hasta alcanzar el valor del parámetro max_epochs.

  • STOP_TRAININGEl entrenamiento del modelo se detendrá cuando el modelo deje de mejorar, independientemente del valor del parámetro max_epochs especificado. Esta es la opción predeterminada.
  • CONTINUE_TRAININGEl entrenamiento del modelo continuará hasta alcanzar el valor del parámetro max_epochs.
Boolean
make_trainable
(Opcional)

Especifica si las capas de base del modelo previamente entrenado se inmovilizarán, de modo que los pesos y sesgos permanezcan tal como se diseñaron originalmente.

  • TRAIN_MODEL_BACKBONELas capas de base no se inmovilizarán y los pesos y sesgos del valor del parámetro model_backbone se pueden modificar para adaptarse a las muestras de entrenamiento. Esto tarda más tiempo en procesarse, pero generalmente produce mejores resultados. Esta es la opción predeterminada.
  • FREEZE_MODEL_BACKBONELas capas de base se inmovilizarán y los pesos y sesgos predefinidos del valor del parámetro model_backbone no se modificarán durante el entrenamiento.
Boolean

Muestra de código

TrainEntityRecognitionModel (ventana de Python)

El siguiente script de la ventana de Python muestra cómo utilizar la función TrainEntityRecognitionModel.

# Name: TrainEntityRecognizer.py
# Description: Train an Entity Recognition model to extract useful entities like "Address", "Date" from text.  
#
# Requirements: ArcGIS Pro Advanced license

# Import system modules
import arcpy
import os

arcpy.env.workspace = "C:/textanalysisexamples/data"
dbpath = "C:/textanalysisexamples/Text_analysis_tools.gdb"

# Set local variables
in_folder = 'train_data'
out_folder = "test_bio_format"

# Run Train Entity Recognition Model
arcpy.geoai.TrainEntityRecognitionModel(in_folder, out_folder)

Información de licenciamiento

  • Basic: No
  • Standard: No
  • Advanced: Sí

Temas relacionados