Core Concepts
Entscheidungsbäume erklären Support-Vektor-Regressionsmodelle genauer als LIME und multiple lineare Regression in Bezug auf RMSE-Werte.
Abstract
In dieser Studie werden Entscheidungsbäume, die lokale und globale Erklärungstechniken darstellen, mit der LIME-Technik und der multiplen linearen Regression verglichen, um Support-Vektor-Regressionsmodelle zu erklären. Die Ergebnisse zeigen, dass Entscheidungsbäume in 87% der Fälle einen niedrigeren RMSE-Wert aufweisen als LIME und in 73% der Fälle einen niedrigeren RMSE-Wert als die multiple lineare Regression. Der Vergleich der Ergebnisse ist für Entscheidungsbäume im Vergleich zu LIME statistisch signifikant, nicht jedoch für die multiple lineare Regression im Vergleich zu LIME. Auch als lokale Erklärungstechnik zeigen Entscheidungsbäume eine bessere Leistung als LIME, und der Vergleich der Ergebnisse ist statistisch signifikant. Die überlegene Leistung der Entscheidungsbäume wird auf ihre Fähigkeit zurückgeführt, nichtlineare Beziehungen besser zu erfassen als LIME und die multiple lineare Regression.
Stats
Die multiple lineare Regression hatte in allen Läufen einen größeren RMSE-Wert als das Support-Vektor-Regressionsmodell.
In 87% der Läufe hatte der Entscheidungsbaum einen niedrigeren RMSE-Wert als LIME.
In 73% der Läufe hatte die multiple lineare Regression einen niedrigeren RMSE-Wert als LIME.
Quotes
Der Vergleich der RMSE-Werte von Entscheidungsbäumen und LIME mit dem gepaarten Wilcoxon-Test ergab einen p-Wert von 0,022, was statistisch signifikant ist.
Der Vergleich der RMSE-Werte von multipler linearer Regression und LIME mit dem gepaarten Wilcoxon-Test ergab einen p-Wert von 0,252, was nicht statistisch signifikant ist.