核心概念
HFLは、ヘシアンの計算や逆行列演算を回避しながら、ラプラス近似の不確実性を効果的に推定する手法です。
統計資料
ラプラス近似は小規模ニューラルネットワーク向けに初めて提案された(MacKay, 1992)。
GGN(Gauss-Newton)は最適化時に残差誤差がほぼ0であることを前提としている(Immer et al., 2021)。
HFLは予測平均の不確実性を推定する際に追加正則化項を使用している(Algorithm 2)。
引述
"Approximate inference turns deep networks into Gaussian processes." - Khan et al. (2019)
"In-between’ uncertainty in Bayesian neural networks." - Foong et al. (2019)
"Leveraging uncertainty information from deep neural networks for disease detection." - Leibig et al. (2017)