Textklassifizierungsmodell trainieren (GeoAI)

Zusammenfassung

Trainiert ein Textklassifizierungsmodell mit einzelnen oder mehreren Beschriftungen, mit dem unstrukturiertem Text eine vordefinierte Kategorie oder Beschriftung zugewiesen werden soll.

Weitere Informationen zur Funktionsweise der Textklassifizierung

Verwendung

  • Für dieses Werkzeug müssen Deep-Learning-Frameworks installiert sein. Informationen zum Einrichten des Computers für Deep-Learning-Frameworks in ArcGIS Pro finden Sie unter Installieren von Deep-Learning-Frameworks for ArcGIS.

  • Dieses Werkzeug kann auch zum Optimieren eines bestehenden, bereits trainierten Modells eingesetzt werden.

  • Um dieses Werkzeug mithilfe einer GPU auszuführen, legen Sie die Umgebung für den Prozessortyp auf "GPU" fest. Bei mehr als einer GPU geben Sie stattdessen die Umgebung GPU-ID an.

  • Als Eingabe für das Werkzeug dient eine Tabelle oder Feature-Class mit Trainingsdaten, wobei ein Textfeld den Eingabetext und ein Beschriftungsfeld die Zielklassenbeschriftungen enthält.

  • Weitere Informationen zu den Voraussetzungen für die Ausführung dieses Werkzeugs und eventuell dabei auftretenden Problemen finden Sie unter Häufig gestellte Fragen zu Deep Learning.

Parameter

BeschriftungErläuterungDatentyp
Eingabetabelle

Eine Feature-Class oder Tabelle, die ein Textfeld mit dem Eingabetext für das Modell und ein Beschriftungsfeld mit den Zielklassenbeschriftungen enthält.

Feature Layer; Table View
Textfeld

Ein Textfeld in der Eingabe-Feature-Class oder Eingabetabelle, das den Text enthält, der durch das Modell klassifiziert werden soll.

Field
Beschriftungsfeld

Ein Textfeld in der Eingabe-Feature-Class oder Eingabetabelle, das die Zielklassenbeschriftungen für das Training des Modells enthält. Geben Sie bei Textklassifizierungen mit mehreren Beschriftungen mehr als ein Textfeld an.

Field
Ausgabemodell

Der Speicherort des Ausgabeordners, in dem das trainierte Modell gespeichert wird.

Folder
Datei des vortrainierten Modells
(optional)

Ein vortrainiertes Modell, das zum Feintuning des neuen Modells verwendet wird. Als Eingabe kann eine Esri Modelldefinitionsdatei (.emd) oder eine Deep-Learning-Paketdatei (.dlpk) verwendet werden.

Für ein vortrainiertes Modell mit ähnlichen Klassen kann ein Finetuning durchgeführt werden, um es auf das neue Modell abzustimmen. Das vortrainierte Modell muss mit dem gleichen Modelltyp und dem gleichen Backbone-Modell trainiert worden sein, das für das Training des neuen Modells verwendet wird.

File
Max. Epochen
(optional)

Die maximale Anzahl von Epochen, für die das Modell trainiert wird. Eine maximale Epoche von 1 bedeutet, dass das Dataset einmal vorwärts und einmal rückwärts durch das neuronale Netz geleitet wird. Der Standardwert ist 5.

Long
Modell-Backbone
(optional)

Gibt das vorkonfigurierte neuronale Netzwerk an, das als Encoder für das Modell dienen und Feature-Repräsentationen des Eingabetextes in Form von Vektoren fester Länge extrahieren soll. Diese Vektoren werden anschließend als Eingabe an den Klassifizierungskopf des Modells geleitet.

  • bert-base-casedDas Modell wird mit dem neuronalen Netzwerk BERT trainiert. BERT wird mittels MLM-Ziel (Masked Language Modeling) und NSP (Next Sentence Prediction) vortrainiert.
  • roberta-baseDas Modell wird mit dem neuronalen Netzwerk RoBERTa trainiert. Mit RoBERTa werden die wichtigsten Hyperparameter von BERT geändert, sodass kein Vortrainingsziel mehr erforderlich ist und der nächste Satz mit kleinen Batches und höheren Lernraten trainiert wird.
  • albert-base-v1Das Modell wird mit dem neuronalen Netzwerk ALBERT trainiert. Bei ALBERT wird ein selbstüberwachter Verlust verwendet, mit dem die Kohärenz zwischen Sätzen modelliert wird, was im Vergleich zu BERT zu einer besseren Skalierbarkeit führt.
  • xlnet-base-casedDas Modell wird mit dem neuronalen Netzwerk XLNet trainiert. XLNet ist eine generalisierte autoregressive Vortrainingsmethode. Diese Methode ermöglicht das Erlernen bidirektionaler Zusammenhänge durch Maximierung der erwarteten Wahrscheinlichkeit bei allen Permutationen der Faktorisierungsreihenfolge, wodurch die Nachteile von BERT überwunden werden.
  • xlm-roberta-baseDas Modell wird mit dem neuronalen Netzwerk XLM-RoBERTa trainiert. XLM-RoBERTa ist ein mehrsprachiges Modell, das mit 100 verschiedenen Sprachen trainiert wird. Im Gegensatz zu einigen anderen mehrsprachigen XLM-Modellen sind hier keine Sprachtensoren erforderlich, um die jeweils verwendete Sprache zu erkennen. Vielmehr wird die jeweilige Sprache anhand der Eingabe-IDs erkannt.
  • distilroberta-baseDas Modell wird mit dem neuronalen Netzwerk DistilRoBERTa trainiert. DistilRoBERTa ist ein englischsprachiges Modell, das ausschließlich von roberta-base überwacht auf OpenWebTextCorpus, einer Reproduktion des WebText-Datasets von OpenAI, trainiert wird.
  • distilbert-base-casedDas Modell wird mit dem neuronalen Netzwerk DistilBERT trainiert. DistilBERT ist ein kleineres allgemeines Sprachrepräsentationsmodell.
String
Batch-Größe
(optional)

Die Anzahl der Trainingsgebiete, die gleichzeitig verarbeitet werden sollen. Der Standardwert ist 2.

Durch Vergrößern der Batch-Größe kann die Performance des Werkzeugs verbessert werden; mit zunehmender Batch-Größe erhöht sich jedoch auch der Speicherbedarf. Wenn ein Fehler vom Typ "Nicht genügend Arbeitsspeicher" auftritt, verwenden Sie eine kleinere Batch-Größe.

Double
Modellargumente
(optional)

Zusätzliche Argumente für die Initialisierung des Modells wie beispielsweise seq_len für die maximale Sequenzlänge der Trainingsdaten, die beim Training des Modells berücksichtigt werden sollen.

In den Informationen zu Schlüsselwortargumenten in der TextClassifier-Dokumentation finden Sie eine Liste der unterstützten Modellargumente, die verwendet werden können.

Value Table
Lernrate
(optional)

Die Schrittgröße, die angibt, in welchem Umfang die Modellgewichtungen beim Trainingsprozess angepasst werden sollen. Wenn kein Wert angegeben ist, wird automatisch eine optimale Lernrate festgelegt.

Double
Validierungsprozentsatz
(optional)

Der Prozentsatz der Trainingsgebiete, die für die Überprüfung des Modells verwendet werden sollen. Der Standardwert ist 10.

Double
Beenden, wenn sich das Modell nicht mehr verbessert
(optional)

Gibt an, ob das Modelltraining beendet wird, wenn sich das Modell nicht mehr verbessert, oder erst dann, wenn der Parameterwert Max. Epochen erreicht wurde.

  • Aktiviert: Das Modelltraining wird beendet, wenn sich das Modell nicht mehr verbessert, und zwar unabhängig vom angegebenen Parameterwert Max. Epochen. Dies ist die Standardeinstellung.
  • Deaktiviert: Das Modelltraining wird fortgesetzt, bis der Parameterwert Max. Epochen erreicht wurde.
Boolean
Modell-Backbone trainierbar machen
(optional)

Gibt an, ob die Backbone-Layer im vorab trainierten Modell fixiert werden sollen, sodass die Gewichtungen und Verzerrungen wie ursprünglich vorgesehen beibehalten werden.

  • Aktiviert: Die Backbone-Layer werden nicht fixiert, und die Gewichtungen und Verzerrungen des Parameterwertes Modell-Backbone können geändert werden, um sie an die Trainingsgebiete anzupassen. Die Verarbeitung dauert zwar länger, führt aber in der Regel zu besseren Ergebnissen. Dies ist die Standardeinstellung.
  • Deaktiviert: Die Backbone-Layer werden fixiert, und die vordefinierten Gewichtungen und Verzerrungen des Parameterwertes Modell-Backbone werden beim Training nicht geändert.

Boolean
HTML-Tags entfernen
(optional)

Gibt an, ob HTML-Tags aus dem Eingabetext entfernt werden sollen.

  • Aktiviert: Die HTML-Tags im Eingabetext werden entfernt. Dies ist die Standardeinstellung.
  • Deaktiviert: Die HTML-Tags im Eingabetext werden nicht entfernt.

Boolean
URLs entfernen
(optional)

Gibt an, ob URLs aus dem Eingabetext entfernt werden sollen.

  • Aktiviert: Die URLs im Eingabetext werden entfernt. Dies ist die Standardeinstellung.
  • Deaktiviert: Die URLs im Eingabetext werden nicht entfernt.

Boolean

arcpy.geoai.TrainTextClassificationModel(in_table, text_field, label_field, out_model, {pretrained_model_file}, {max_epochs}, {model_backbone}, {batch_size}, {model_arguments}, {learning_rate}, {validation_percentage}, {stop_training}, {make_trainable}, {remove_html_tags}, {remove_urls})
NameErläuterungDatentyp
in_table

Eine Feature-Class oder Tabelle, die ein Textfeld mit dem Eingabetext für das Modell und ein Beschriftungsfeld mit den Zielklassenbeschriftungen enthält.

Feature Layer; Table View
text_field

Ein Textfeld in der Eingabe-Feature-Class oder Eingabetabelle, das den Text enthält, der durch das Modell klassifiziert werden soll.

Field
label_field
[label_field,...]

Ein Textfeld in der Eingabe-Feature-Class oder Eingabetabelle, das die Zielklassenbeschriftungen für das Training des Modells enthält. Geben Sie bei Textklassifizierungen mit mehreren Beschriftungen mehr als ein Textfeld an.

Field
out_model

Der Speicherort des Ausgabeordners, in dem das trainierte Modell gespeichert wird.

Folder
pretrained_model_file
(optional)

Ein vortrainiertes Modell, das zum Feintuning des neuen Modells verwendet wird. Als Eingabe kann eine Esri Modelldefinitionsdatei (.emd) oder eine Deep-Learning-Paketdatei (.dlpk) verwendet werden.

Für ein vortrainiertes Modell mit ähnlichen Klassen kann ein Finetuning durchgeführt werden, um es auf das neue Modell abzustimmen. Das vortrainierte Modell muss mit dem gleichen Modelltyp und dem gleichen Backbone-Modell trainiert worden sein, das für das Training des neuen Modells verwendet wird.

File
max_epochs
(optional)

Die maximale Anzahl von Epochen, für die das Modell trainiert wird. Eine maximale Epoche von 1 bedeutet, dass das Dataset einmal vorwärts und einmal rückwärts durch das neuronale Netz geleitet wird. Der Standardwert ist 5.

Long
model_backbone
(optional)

Gibt das vorkonfigurierte neuronale Netzwerk an, das als Encoder für das Modell dienen und Feature-Repräsentationen des Eingabetextes in Form von Vektoren fester Länge extrahieren soll. Diese Vektoren werden anschließend als Eingabe an den Klassifizierungskopf des Modells geleitet.

  • bert-base-casedDas Modell wird mit dem neuronalen Netzwerk BERT trainiert. BERT wird mittels MLM-Ziel (Masked Language Modeling) und NSP (Next Sentence Prediction) vortrainiert.
  • roberta-baseDas Modell wird mit dem neuronalen Netzwerk RoBERTa trainiert. Mit RoBERTa werden die wichtigsten Hyperparameter von BERT geändert, sodass kein Vortrainingsziel mehr erforderlich ist und der nächste Satz mit kleinen Batches und höheren Lernraten trainiert wird.
  • albert-base-v1Das Modell wird mit dem neuronalen Netzwerk ALBERT trainiert. Bei ALBERT wird ein selbstüberwachter Verlust verwendet, mit dem die Kohärenz zwischen Sätzen modelliert wird, was im Vergleich zu BERT zu einer besseren Skalierbarkeit führt.
  • xlnet-base-casedDas Modell wird mit dem neuronalen Netzwerk XLNet trainiert. XLNet ist eine generalisierte autoregressive Vortrainingsmethode. Diese Methode ermöglicht das Erlernen bidirektionaler Zusammenhänge durch Maximierung der erwarteten Wahrscheinlichkeit bei allen Permutationen der Faktorisierungsreihenfolge, wodurch die Nachteile von BERT überwunden werden.
  • xlm-roberta-baseDas Modell wird mit dem neuronalen Netzwerk XLM-RoBERTa trainiert. XLM-RoBERTa ist ein mehrsprachiges Modell, das mit 100 verschiedenen Sprachen trainiert wird. Im Gegensatz zu einigen anderen mehrsprachigen XLM-Modellen sind hier keine Sprachtensoren erforderlich, um die jeweils verwendete Sprache zu erkennen. Vielmehr wird die jeweilige Sprache anhand der Eingabe-IDs erkannt.
  • distilroberta-baseDas Modell wird mit dem neuronalen Netzwerk DistilRoBERTa trainiert. DistilRoBERTa ist ein englischsprachiges Modell, das ausschließlich von roberta-base überwacht auf OpenWebTextCorpus, einer Reproduktion des WebText-Datasets von OpenAI, trainiert wird.
  • distilbert-base-casedDas Modell wird mit dem neuronalen Netzwerk DistilBERT trainiert. DistilBERT ist ein kleineres allgemeines Sprachrepräsentationsmodell.
String
batch_size
(optional)

Die Anzahl der Trainingsgebiete, die gleichzeitig verarbeitet werden sollen. Der Standardwert ist 2.

Durch Vergrößern der Batch-Größe kann die Performance des Werkzeugs verbessert werden; mit zunehmender Batch-Größe erhöht sich jedoch auch der Speicherbedarf. Wenn ein Fehler vom Typ "Nicht genügend Arbeitsspeicher" auftritt, verwenden Sie eine kleinere Batch-Größe.

Double
model_arguments
[model_arguments,...]
(optional)

Zusätzliche Argumente für die Initialisierung des Modells wie beispielsweise seq_len für die maximale Sequenzlänge der Trainingsdaten, die beim Training des Modells berücksichtigt werden sollen.

In den Informationen zu Schlüsselwortargumenten in der TextClassifier-Dokumentation finden Sie eine Liste der unterstützten Modellargumente, die verwendet werden können.

Value Table
learning_rate
(optional)

Die Schrittgröße, die angibt, in welchem Umfang die Modellgewichtungen beim Trainingsprozess angepasst werden sollen. Wenn kein Wert angegeben ist, wird automatisch eine optimale Lernrate festgelegt.

Double
validation_percentage
(optional)

Der Prozentsatz der Trainingsgebiete, die für die Überprüfung des Modells verwendet werden sollen. Der Standardwert ist 10.

Double
stop_training
(optional)

Gibt an, ob das Modelltraining beendet wird, wenn sich das Modell nicht mehr verbessert, oder erst dann, wenn der Parameterwert max_epochs erreicht wurde.

  • STOP_TRAININGDas Modelltraining wird beendet, wenn sich das Modell nicht mehr verbessert, und zwar unabhängig vom angegebenen Parameterwert max_epochs. Dies ist die Standardeinstellung.
  • CONTINUE_TRAININGDas Modelltraining wird fortgesetzt, bis der Parameterwert max_epochs erreicht wurde.
Boolean
make_trainable
(optional)

Gibt an, ob die Backbone-Layer im vorab trainierten Modell fixiert werden sollen, sodass die Gewichtungen und Verzerrungen wie ursprünglich vorgesehen beibehalten werden.

  • TRAIN_MODEL_BACKBONEDie Backbone-Layer werden nicht fixiert, und die Gewichtungen und Verzerrungen des Parameterwertes model_backbone können geändert werden, um sie an die Trainingsgebiete anzupassen. Die Verarbeitung dauert zwar länger, führt aber in der Regel zu besseren Ergebnissen. Dies ist die Standardeinstellung.
  • FREEZE_MODEL_BACKBONEDie Backbone-Layer werden fixiert, und die vordefinierten Gewichtungen und Verzerrungen des Parameterwertes model_backbone werden beim Training nicht geändert.
Boolean
remove_html_tags
(optional)

Gibt an, ob HTML-Tags aus dem Eingabetext entfernt werden sollen.

  • REMOVE_HTML_TAGSDie HTML-Tags im Eingabetext werden entfernt. Dies ist die Standardeinstellung.
  • DO_NOT_REMOVE_HTML_TAGSDie HTML-Tags im Eingabetext werden nicht entfernt.
Boolean
remove_urls
(optional)

Gibt an, ob URLs aus dem Eingabetext entfernt werden sollen.

  • REMOVE_URLSDie URLs im Eingabetext werden entfernt. Dies ist die Standardeinstellung.
  • DO_NOT_REMOVE_URLSDie URLs im Eingabetext werden nicht entfernt.
Boolean

Codebeispiel

TrainTextClassificationModel (Python-Fenster)

Das folgende Skript im Python-Fenster veranschaulicht, wie Sie die Funktion TrainTextClassificationModel verwenden.

# Name: TrainTextClassification.py
# Description: Train a text classifier model to classify text in different classes.  
#
# Requirements: ArcGIS Pro Advanced license

# Import system modules
import arcpy
import os

arcpy.env.workspace = "C:/textanalysisexamples/data"

# Set local variables
in_table = "training_data_textclassifier.csv"
out_folder = "c\\textclassifier"

# Run Train Text Classification Model
arcpy.geoai.TrainTextClassificationModel(in_table, out_folder, 
            max_epochs=2, text_field="Address", label_field="Country", batch_size=16)

Umgebungen

Lizenzinformationen

  • Basic: Nein
  • Standard: Nein
  • Advanced: Ja

Verwandte Themen