Textklassifizierungsmodell trainieren (GeoAI)

Zusammenfassung

Trainiert ein Textklassifizierungsmodell mit einzelnen oder mehreren Beschriftungen, mit dem unstrukturiertem Text eine vordefinierte Kategorie oder Beschriftung zugewiesen werden soll.

Weitere Informationen zur Funktionsweise der Textklassifizierung

Verwendung

  • Für dieses Werkzeug müssen Deep-Learning-Frameworks installiert sein. Informationen zum Einrichten des Computers für Deep-Learning-Frameworks in ArcGIS Pro finden Sie unter Installieren von Deep-Learning-Frameworks for ArcGIS.

  • Dieses Werkzeug kann auch zur Optimierung eines vorhandenen trainierten Modells verwendet werden.

  • Wenn Sie dieses Werkzeug mit dem Grafikprozessor ausführen möchten, legen Sie die Umgebungsvariable Prozessortyp auf "GPU" fest. Wenn Sie mehrere Grafikprozessoren haben, legen Sie stattdessen die Umgebungsvariable GPU ID fest.

  • Die Eingabe kann eine Tabelle oder eine Feature-Class mit Trainingsdaten sein, wobei ein Textfeld den Eingabetext und ein Beschriftungsfeld die Zielklassenbeschriftungen enthält.

  • Dieses Werkzeug verwendet Transformer-basierte Backbones für das Training von Textklassifizierungsmodellen und unterstützt auch das In-Context-Learning mit Prompts unter Verwendung des Mistral-LLM. Informationen zur Installation des Mistral-Backbone finden Sie unter ArcGIS Mistral Backbone.

  • Weitere Informationen zu den Voraussetzungen für die Ausführung dieses Werkzeugs und eventuell dabei auftretenden Problemen finden Sie unter Häufig gestellte Fragen zu Deep Learning.

Parameter

BeschriftungErläuterungDatentyp
Eingabetabelle

Eine Feature-Class oder Tabelle, die ein Textfeld mit dem Eingabetext für das Modell und ein Beschriftungsfeld mit den Zielklassenbeschriftungen enthält.

Feature Layer; Table View
Textfeld

Ein Textfeld in der Eingabe-Feature-Class oder Eingabetabelle, das den vom Modell zu klassifizierenden Text enthält.

Field
Beschriftungsfeld

Ein Textfeld in der Eingabe-Feature-Class oder Eingabetabelle, das die Zielklassenbeschriftungen für das Training des Modells enthält. Geben Sie bei Textklassifizierungen mit mehreren Beschriftungen mehr als ein Textfeld an.

Field
Ausgabemodell

Der Speicherort des Ausgabeordners, in dem das trainierte Modell gespeichert wird.

Folder
Datei des vortrainierten Modells
(optional)

Ein vortrainiertes Modell, das zum Finetuning des neuen Modells verwendet wird. Als Eingabe kann eine Esri Modelldefinitionsdatei (.emd) oder eine Deep-Learning-Paketdatei (.dlpk) verwendet werden.

Für ein vortrainiertes Modell mit ähnlichen Klassen kann ein Finetuning durchgeführt werden, um es auf das neue Modell abzustimmen. Das vortrainierte Modell muss mit dem gleichen Modelltyp und dem gleichen Backbone-Modell trainiert worden sein, das für das Training des neuen Modells verwendet wird.

File
Max. Epochen
(optional)

Die maximale Anzahl von Epochen, für die das Modell trainiert wird. Die Einstellung "Max. Epochen" auf 1 bedeutet, dass das Dataset einmal durch das neuronale Netz geleitet wird. Der Standardwert ist 5.

Long
Modell-Backbone
(optional)

Gibt das vorkonfigurierte neuronale Netzwerk an, das als Encoder für das Modell dienen und Feature-Repräsentationen des Eingabetextes in Form von Vektoren fester Länge extrahieren soll. Diese Vektoren werden als Eingabe an den Klassifizierungskopf des Modells geleitet.

  • bert-base-casedDas Modell wird mit dem neuronalen Netzwerk BERT trainiert. BERT wird mittels MLM-Ziel (Masked Language Modeling) und NSP (Next Sentence Prediction) vortrainiert.
  • roberta-baseDas Modell wird mit dem neuronalen Netzwerk RoBERTa trainiert. Mit RoBERTa werden die wichtigsten Hyperparameter von BERT geändert, sodass kein Vortrainingsziel mehr erforderlich ist und der nächste Satz mit kleinen Batches und höheren Lernraten trainiert wird.
  • albert-base-v1Das Modell wird mit dem neuronalen Netzwerk ALBERT trainiert. Bei ALBERT wird ein selbstüberwachter Verlust verwendet, mit dem die Kohärenz zwischen Sätzen modelliert wird, was im Vergleich zu BERT zu einer besseren Skalierbarkeit führt.
  • xlnet-base-casedDas Modell wird mit dem neuronalen Netzwerk XLNet trainiert. XLNet ist eine generalisierte autoregressive Vortrainingsmethode. Diese Methode ermöglicht das Erlernen bidirektionaler Zusammenhänge durch Maximierung der erwarteten Wahrscheinlichkeit bei allen Permutationen der Faktorisierungsreihenfolge, wodurch die Nachteile von BERT überwunden werden.
  • xlm-roberta-baseDas Modell wird mit dem neuronalen Netzwerk XLM-RoBERTa trainiert. XLM-RoBERTa ist ein mehrsprachiges Modell, das mit 100 verschiedenen Sprachen trainiert wird. Im Gegensatz zu einigen anderen mehrsprachigen XLM-Modellen sind hier keine Sprachtensoren erforderlich, um die jeweils verwendete Sprache zu erkennen. Vielmehr wird die jeweilige Sprache anhand der Eingabe-IDs erkannt.
  • distilroberta-baseDas Modell wird mit dem neuronalen Netzwerk DistilRoBERTa trainiert. DistilRoBERTa ist ein englischsprachiges Modell, das ausschließlich unter Überwachung des neuronalen roberta-base-Netzwerks auf OpenWebTextCorpus, einer Reproduktion des WebText-Datasets von OpenAI, trainiert wird.
  • distilbert-base-casedDas Modell wird mit dem neuronalen Netzwerk DistilBERT trainiert. DistilBERT ist ein kleineres allgemeines Sprachrepräsentationsmodell.
  • mistralDas Modell wird mithilfe des Mistral-LLM (Large Language Model) erstellt. Mistral ist ein reiner Decoder-Transformator, der Sliding Window Attention, Grouped-Query Attention und den Byte-Fallback-BPE-Tokenizer verwendet. Informationen zur Installation des Mistral-Backbone finden Sie unter ArcGIS Mistral Backbone.
String
Batch-Größe
(optional)

Die Anzahl der Trainingsgebiete, die gleichzeitig verarbeitet werden sollen. Der Standardwert ist 2.

Durch größere Batches kann die Leistung des Werkzeugs erhöht werden. Aber größere Batches belegen mehr Arbeitsspeicher. Wird die Fehlermeldung "Nicht genügend Arbeitsspeicher" angezeigt, verwenden Sie kleinere Batches.

Double
Modellargumente
(optional)

Zusätzliche Argumente, die für die Initialisierung des Modells verwendet werden sollen. Das unterstützte Modellargument ist sequence_length. Es wird zum Festlegen der maximalen Sequenzlänge der Trainingsdaten, die beim Training des Modells berücksichtigt werden sollen, verwendet.

Value Table
Lernrate
(optional)

Die Schrittgröße, die angibt, in welchem Umfang die Modellgewichtungen beim Trainingsprozess angepasst werden. Wenn kein Wert angegeben ist, wird automatisch eine optimale Lernrate angewendet.

Double
Validierungsprozentsatz
(optional)

Der Prozentsatz der Trainingsgebiete, die für die Überprüfung des Modells verwendet werden sollen. Der Standardwert ist 10 für Transformer-basierte Modell-Backbones und 50 für den Mistral-Backbone.

Double
Beenden, wenn sich das Modell nicht mehr verbessert
(optional)

Gibt an, ob das Modelltraining beendet wird, wenn sich das Modell nicht mehr verbessert, oder fortgesetzt wird, bis der Parameterwert Max. Epochen erreicht wurde.

  • Aktiviert: Das Modelltraining wird beendet, wenn sich das Modell nicht mehr verbessert, und zwar unabhängig vom Parameterwert Max. Epochen. Dies ist die Standardeinstellung.
  • Deaktiviert: Das Modelltraining wird fortgesetzt, bis der Parameterwert Max. Epochen erreicht wurde.
Boolean
Modell-Backbone trainierbar machen
(optional)

Gibt an, ob die Backbone-Layer im vorab trainierten Modell fixiert werden sollen, sodass die Gewichtungen und Verzerrungen wie ursprünglich vorgesehen beibehalten werden.

  • Aktiviert: Die Backbone-Layer werden nicht fixiert, und die Gewichtungen und Verzerrungen des Parameterwertes Modell-Backbone können geändert werden, um sie an die Trainingsgebiete anzupassen. Die Verarbeitung dauert zwar länger, führt aber in der Regel zu besseren Ergebnissen. Dies ist die Standardeinstellung.
  • Deaktiviert: Die Backbone-Layer werden fixiert, und die vordefinierten Gewichtungen und Verzerrungen des Parameterwertes Modell-Backbone werden beim Training nicht geändert.

Boolean
HTML-Tags entfernen
(optional)

Gibt an, ob HTML-Tags aus dem Eingabetext entfernt werden.

  • Aktiviert: Die HTML-Tags im Eingabetext werden entfernt. Dies ist die Standardeinstellung.
  • Deaktiviert: Die HTML-Tags im Eingabetext werden nicht entfernt.

Boolean
URLs entfernen
(optional)

Gibt an, ob URLs aus dem Eingabetext entfernt werden.

  • Aktiviert: Die URLs im Eingabetext werden entfernt. Dies ist die Standardeinstellung.
  • Deaktiviert: Die URLs im Eingabetext werden nicht entfernt.

Boolean
Prompt
(optional)

Eine spezifische Eingabe oder Anweisung, die an ein LLM (Large Language Model) gegeben wird, um eine erwartete Ausgabe zu erzeugen.

Der Standardwert ist Angegebenen Text in die angegebenen Klassen kategorisieren. Keine neuen Klassifizierungsbeschriftungen erstellen.

String

arcpy.geoai.TrainTextClassificationModel(in_table, text_field, label_field, out_model, {pretrained_model_file}, {max_epochs}, {model_backbone}, {batch_size}, {model_arguments}, {learning_rate}, {validation_percentage}, {stop_training}, {make_trainable}, {remove_html_tags}, {remove_urls}, {prompt})
NameErläuterungDatentyp
in_table

Eine Feature-Class oder Tabelle, die ein Textfeld mit dem Eingabetext für das Modell und ein Beschriftungsfeld mit den Zielklassenbeschriftungen enthält.

Feature Layer; Table View
text_field

Ein Textfeld in der Eingabe-Feature-Class oder Eingabetabelle, das den vom Modell zu klassifizierenden Text enthält.

Field
label_field
[label_field,...]

Ein Textfeld in der Eingabe-Feature-Class oder Eingabetabelle, das die Zielklassenbeschriftungen für das Training des Modells enthält. Geben Sie bei Textklassifizierungen mit mehreren Beschriftungen mehr als ein Textfeld an.

Field
out_model

Der Speicherort des Ausgabeordners, in dem das trainierte Modell gespeichert wird.

Folder
pretrained_model_file
(optional)

Ein vortrainiertes Modell, das zum Finetuning des neuen Modells verwendet wird. Als Eingabe kann eine Esri Modelldefinitionsdatei (.emd) oder eine Deep-Learning-Paketdatei (.dlpk) verwendet werden.

Für ein vortrainiertes Modell mit ähnlichen Klassen kann ein Finetuning durchgeführt werden, um es auf das neue Modell abzustimmen. Das vortrainierte Modell muss mit dem gleichen Modelltyp und dem gleichen Backbone-Modell trainiert worden sein, das für das Training des neuen Modells verwendet wird.

File
max_epochs
(optional)

Die maximale Anzahl von Epochen, für die das Modell trainiert wird. Die Einstellung "Max. Epochen" auf 1 bedeutet, dass das Dataset einmal durch das neuronale Netz geleitet wird. Der Standardwert ist 5.

Long
model_backbone
(optional)

Gibt das vorkonfigurierte neuronale Netzwerk an, das als Encoder für das Modell dienen und Feature-Repräsentationen des Eingabetextes in Form von Vektoren fester Länge extrahieren soll. Diese Vektoren werden als Eingabe an den Klassifizierungskopf des Modells geleitet.

  • bert-base-casedDas Modell wird mit dem neuronalen Netzwerk BERT trainiert. BERT wird mittels MLM-Ziel (Masked Language Modeling) und NSP (Next Sentence Prediction) vortrainiert.
  • roberta-baseDas Modell wird mit dem neuronalen Netzwerk RoBERTa trainiert. Mit RoBERTa werden die wichtigsten Hyperparameter von BERT geändert, sodass kein Vortrainingsziel mehr erforderlich ist und der nächste Satz mit kleinen Batches und höheren Lernraten trainiert wird.
  • albert-base-v1Das Modell wird mit dem neuronalen Netzwerk ALBERT trainiert. Bei ALBERT wird ein selbstüberwachter Verlust verwendet, mit dem die Kohärenz zwischen Sätzen modelliert wird, was im Vergleich zu BERT zu einer besseren Skalierbarkeit führt.
  • xlnet-base-casedDas Modell wird mit dem neuronalen Netzwerk XLNet trainiert. XLNet ist eine generalisierte autoregressive Vortrainingsmethode. Diese Methode ermöglicht das Erlernen bidirektionaler Zusammenhänge durch Maximierung der erwarteten Wahrscheinlichkeit bei allen Permutationen der Faktorisierungsreihenfolge, wodurch die Nachteile von BERT überwunden werden.
  • xlm-roberta-baseDas Modell wird mit dem neuronalen Netzwerk XLM-RoBERTa trainiert. XLM-RoBERTa ist ein mehrsprachiges Modell, das mit 100 verschiedenen Sprachen trainiert wird. Im Gegensatz zu einigen anderen mehrsprachigen XLM-Modellen sind hier keine Sprachtensoren erforderlich, um die jeweils verwendete Sprache zu erkennen. Vielmehr wird die jeweilige Sprache anhand der Eingabe-IDs erkannt.
  • distilroberta-baseDas Modell wird mit dem neuronalen Netzwerk DistilRoBERTa trainiert. DistilRoBERTa ist ein englischsprachiges Modell, das ausschließlich unter Überwachung des neuronalen roberta-base-Netzwerks auf OpenWebTextCorpus, einer Reproduktion des WebText-Datasets von OpenAI, trainiert wird.
  • distilbert-base-casedDas Modell wird mit dem neuronalen Netzwerk DistilBERT trainiert. DistilBERT ist ein kleineres allgemeines Sprachrepräsentationsmodell.
  • mistralDas Modell wird mithilfe des Mistral-LLM (Large Language Model) erstellt. Mistral ist ein reiner Decoder-Transformator, der Sliding Window Attention, Grouped-Query Attention und den Byte-Fallback-BPE-Tokenizer verwendet. Informationen zur Installation des Mistral-Backbone finden Sie unter ArcGIS Mistral Backbone.
String
batch_size
(optional)

Die Anzahl der Trainingsgebiete, die gleichzeitig verarbeitet werden sollen. Der Standardwert ist 2.

Durch größere Batches kann die Leistung des Werkzeugs erhöht werden. Aber größere Batches belegen mehr Arbeitsspeicher. Wird die Fehlermeldung "Nicht genügend Arbeitsspeicher" angezeigt, verwenden Sie kleinere Batches.

Double
model_arguments
[model_arguments,...]
(optional)

Zusätzliche Argumente, die für die Initialisierung des Modells verwendet werden sollen. Das unterstützte Modellargument ist sequence_length. Es wird zum Festlegen der maximalen Sequenzlänge der Trainingsdaten, die beim Training des Modells berücksichtigt werden sollen, verwendet.

Value Table
learning_rate
(optional)

Die Schrittgröße, die angibt, in welchem Umfang die Modellgewichtungen beim Trainingsprozess angepasst werden. Wenn kein Wert angegeben ist, wird automatisch eine optimale Lernrate angewendet.

Double
validation_percentage
(optional)

Der Prozentsatz der Trainingsgebiete, die für die Überprüfung des Modells verwendet werden sollen. Der Standardwert ist 10 für Transformer-basierte Modell-Backbones und 50 für den Mistral-Backbone.

Double
stop_training
(optional)

Gibt an, ob das Modelltraining beendet wird, wenn sich das Modell nicht mehr verbessert, oder fortgesetzt, wird bis der Parameterwert max_epochs erreicht wurde.

  • STOP_TRAININGDas Modelltraining wird beendet, wenn sich das Modell nicht mehr verbessert, und zwar unabhängig vom Parameterwert max_epochs. Dies ist die Standardeinstellung.
  • CONTINUE_TRAININGDas Modelltraining wird fortgesetzt, bis der Parameterwert max_epochs erreicht wurde.
Boolean
make_trainable
(optional)

Gibt an, ob die Backbone-Layer im vorab trainierten Modell fixiert werden sollen, sodass die Gewichtungen und Verzerrungen wie ursprünglich vorgesehen beibehalten werden.

  • TRAIN_MODEL_BACKBONEDie Backbone-Layer werden nicht fixiert, und die Gewichtungen und Verzerrungen des Parameterwertes model_backbone können geändert werden, um sie an die Trainingsgebiete anzupassen. Die Verarbeitung dauert zwar länger, führt aber in der Regel zu besseren Ergebnissen. Dies ist die Standardeinstellung.
  • FREEZE_MODEL_BACKBONEDie Backbone-Layer werden fixiert, und die vordefinierten Gewichtungen und Verzerrungen des Parameterwertes model_backbone werden beim Training nicht geändert.
Boolean
remove_html_tags
(optional)

Gibt an, ob HTML-Tags aus dem Eingabetext entfernt werden.

  • REMOVE_HTML_TAGSDie HTML-Tags im Eingabetext werden entfernt. Dies ist die Standardeinstellung.
  • DO_NOT_REMOVE_HTML_TAGSDie HTML-Tags im Eingabetext werden nicht entfernt.
Boolean
remove_urls
(optional)

Gibt an, ob URLs aus dem Eingabetext entfernt werden.

  • REMOVE_URLSDie URLs im Eingabetext werden entfernt. Dies ist die Standardeinstellung.
  • DO_NOT_REMOVE_URLSDie URLs im Eingabetext werden nicht entfernt.
Boolean
prompt
(optional)

Eine spezifische Eingabe oder Anweisung, die an ein LLM (Large Language Model) gegeben wird, um eine erwartete Ausgabe zu erzeugen.

Der Standardwert ist Angegebenen Text in die angegebenen Klassen kategorisieren. Keine neuen Klassifizierungsbeschriftungen erstellen.

String

Codebeispiel

TrainTextClassificationModel (eigenständiges Skript)

Im folgenden Beispiel wird veranschaulicht, wie die TrainTextClassificationModel-Funktion verwendet wird.

# Name: TrainTextClassification.py
# Description: Train a text classifier model to classify text in different
#              classes.  
#
# Requirements: ArcGIS Pro Advanced license

# Import system modules
import arcpy

arcpy.env.workspace = "C:/textanalysisexamples/data"

# Set local variables
in_table = "training_data_textclassifier.csv"
out_folder = "c:\\textclassifier"

# Run Train Text Classification Model
arcpy.geoai.TrainTextClassificationModel(
    in_table, out_folder, max_epochs=2, text_field="Address",
    label_field="Country", batch_size=16)

Umgebungen

Lizenzinformationen

  • Basic: Nein
  • Standard: Nein
  • Advanced: Ja

Verwandte Themen