핵심 개념
Die Verwendung des vollen Bayes-Posteriors in probabilistischen Programmen mit stochastischer Unterstützung führt implizit zu einer Bayesschen Modell-Durchschnittsbildung (BMA) über die möglichen Programmpfade. Dies kann jedoch problematisch sein, da die BMA-Gewichte instabil sein können, was zu suboptimalen Vorhersagen führen kann. Daher schlagen wir alternative Mechanismen zur Pfadgewichtung vor, die auf Stacking und PAC-Bayes-Ideen basieren. Diese können als kostengünstiger Nachverarbeitungsschritt auf bestehende Inferenzmaschinen aufgesetzt werden und zeigen in unseren Experimenten robustere Gewichte und bessere Vorhersagen im Vergleich zum Standard-BMA.
초록
Der Artikel untersucht die Verwendung des vollen Bayes-Posteriors in probabilistischen Programmen mit stochastischer Unterstützung. Es wird gezeigt, dass dies implizit einer Bayesschen Modell-Durchschnittsbildung (BMA) über die möglichen Programmpfade entspricht.
Die Autoren argumentieren, dass BMA-Gewichte problematisch sein können, da sie instabil sein können, insbesondere bei Modellfehlspezifikation. Dies kann zu suboptimalen Vorhersagen führen.
Um diese Probleme zu adressieren, schlagen die Autoren alternative Mechanismen zur Pfadgewichtung vor:
-
Stacking-basierte Gewichtung: Hierbei werden die Pfadgewichte so optimiert, dass die Vorhersageleistung auf Validierungsdaten maximiert wird. Dies kann als kostengünstiger Nachverarbeitungsschritt implementiert werden.
-
PAC-Bayes-basierte Gewichtung: Hier wird eine regularisierte Variante des Stacking-Objektiv verwendet, die auf PAC-Bayes-Ideen basiert. Dies soll Überanpassung an die Validierungsdaten vermeiden.
In Experimenten auf synthetischen und realen Datensätzen zeigen die vorgeschlagenen Methoden robustere Pfadgewichte und bessere Vorhersageleistung im Vergleich zur Standard-BMA-Gewichtung.
통계
Die Autoren verwenden verschiedene synthetische Datensätze sowie reale Datensätze wie California, Diabetes und Stroke, um ihre Methoden zu evaluieren.
인용구
"BMA often performs poorly under model misspecification (Gelman and Yao, 2020; Oelrich et al., 2020), wherein it tends to produce overconfident posterior model weights that collapse towards a single model (Huggins and Miller, 2021; Yang and Zhu, 2018)."
"Given that models will rarely be perfect when working with real data (Box, 1976; Key et al., 1999; Vehtari and Ojanen, 2012), this is a serious practical concern that has been observed to cause notable issues in many applied fields (Yang and Zhu, 2018; Smets and Wouters, 2007; Leff et al., 2008)."