Funktionsweise des Extra-Trees-Algorithmus für Klassifizierung und Regression

Extra Trees (Kurzform von "Extremely Randomized Trees" [extrem randomisierte Bäume]) ist eine Ensemble-Lernmethode für überwachtes maschinelles Lernen, bei der Entscheidungsbäume verwendet werden. Diese Methode wird vom Werkzeug Mit AutoML trainieren verwendet. Informationen zur Funktionsweise von Entscheidungsbäumen finden Sie unter Entscheidungsbaumalgorithmus für Klassifizierung und Regression. Diese Methode hat Ähnlichkeit mit Random Forests, ist jedoch manchmal schneller.

Der Extra-Trees-Algorithmus erstellt wie der Random-Forest-Algorithmus zahlreiche Entscheidungsbäume, für die jedoch nach dem Zufallsprinzip ausgewählte Stichproben ohne Ersetzung verwendet werden. Dadurch entsteht für jeden Baum ein Dataset mit eindeutigen Stichproben. Außerdem wird für jeden Baum nach dem Zufallsprinzip aus allen Features eine bestimmte Anzahl von Features ausgewählt. Das wichtigste eindeutige Merkmal von Extra Trees ist die auf dem Zufallsprinzip basierende Auswahl eines Teilungswertes für ein Feature. Anstatt zum Teilen der Daten mit Gini oder Entropie einen lokal optimalen Wert zu berechnen, wählt der Algorithmus nach dem Zufallsprinzip einen Teilungswert aus. Dadurch ergeben sich diversifizierte Bäume ohne Korrelation.

Zusätzliche Ressourcen

Geurts, Pierre, Damien Ernst und Louis Wehenkel. "Extremely randomized trees". Machine learning 63, Nr. 1 (2006): 3–42.

Was ist der Unterschied zwischen Extra Trees und Random Forest?

Verwandte Themen


In diesem Thema
  1. Zusätzliche Ressourcen