Core Concepts
Random Forests lernen lokale Wahrscheinlichkeitspeaks, die oft zu nahezu perfekten Trainings-c-Statistiken führen, aber die Diskriminierungsverluste auf Testdaten sind oft bescheiden.
Stats
Die visuellen Darstellungen legen nahe, dass das Modell 'Wahrscheinlichkeitsspitzen' um Ereignisse im Trainingsdatensatz lernte.
Die mittleren Trainings-c-Statistiken lagen zwischen 0,97 und 1, es sei denn, es gab 4 binäre Prädiktoren oder 16 binäre Prädiktoren mit einer Mindestknotengröße von 20.
Der mittlere Diskriminierungsverlust betrug 0,025 (Bereich 0,00 bis 0,13).
Quotes
"Random Forests lernen lokale Wahrscheinlichkeitspeaks, die oft zu nahezu perfekten Trainings-c-Statistiken führen."
"Die Simulationsergebnisse zeigten, dass Szenarien mit höheren Trainings-c-Statistiken tendenziell schlechtere Test-c-Statistiken aufwiesen."