Core Concepts
Durch die Formulierung des Entscheidungsbaumproblems als Markov-Entscheidungsprozess und die Verwendung einer informationstheoretischen Testgenerierungsfunktion können wir Entscheidungsbäume finden, die sowohl in Bezug auf Genauigkeit als auch Interpretierbarkeit konkurrenzfähig sind.
Abstract
Der Artikel beschreibt einen Ansatz, um das Problem des Lernens optimaler Entscheidungsbäume als Markov-Entscheidungsprozess (MDP) zu formulieren. Dabei wird eine informationstheoretische Testgenerierungsfunktion verwendet, um den Suchraum heuristisch einzuschränken und so die Skalierbarkeit zu verbessern.
Kernpunkte:
Formulierung des Entscheidungsbaumproblems als MDP, bei dem Aktionen Testvergleiche sind und der Reward einen Kompromiss zwischen Komplexität und Leistung darstellt
Verwendung einer Testgenerierungsfunktion, die für jeden Zustand des MDP die besten Testvergleiche basierend auf CART auswählt
Empirischer Nachweis, dass der vorgeschlagene Algorithmus (DPDT) mit Branch-and-Bound-Verfahren konkurrenzfähig ist, aber deutlich besser skaliert
DPDT kann eine Menge von Bäumen mit unterschiedlichen Komplexitäts-Leistungs-Kompromissen zurückgeben, was die Modellauswahl für den Endnutzer erleichtert
DPDT findet oft Bäume, die besser auf ungesehenen Daten generalisieren als die von CART, bei gleichzeitig geringerer durchschnittlicher Testanzahl
Stats
Die durchschnittliche Anzahl der von den gelernten Bäumen durchgeführten Tests pro Stichprobe beträgt zwischen 1,0 und 5,0.
Quotes
Keine relevanten Zitate gefunden.