Core Concepts
近似決定論的かつ過小パラメータ化された代理モデルにおいて、誤差仕様化は大きな一般化誤差をもたらす。パラメータ分布は各訓練データ点の最適パラメータ集合をカバーする必要があり、これを満たす効率的な ensemble アプローチを提案する。
Abstract
本論文では、近似決定論的かつ過小パラメータ化された代理モデルにおける一般化誤差の分析を行っている。
代理モデルは、シミュレーションエンジンを効率的に近似するために広く使われている。しかし、モデルが訓練データを完全に再現できない誤差仕様化の問題がある。
過小パラメータ化の状況では、期待損失の最小化は誤差仕様化を無視するため、パラメータ不確定性を過小評価してしまう。
一般化誤差は訓練データ点ごとの最適パラメータ集合(POPS)をカバーする必要があり、これを満たさない最小損失ソリューションでは一般化誤差が発散する。
提案するensembleアプローチは、POPSをカバーしつつ効率的に評価できる。線形モデルでは、ランク1の更新を用いて変分最小化が可能である。
高次元の線形回帰問題や原子スケールの機械学習への適用例を示し、提案手法が予測誤差の上界を適切に捉えられることを確認した。
Stats
一般化誤差は最小損失ソリューションでは1/ϵ^2に発散する
提案ensemble手法の一般化誤差は-<ln|mE(X)|>_Xと有限に抑えられる
Quotes
"Parameter distributions must have mass in every POPS to avoid a divergent generalization error."
"For linear models, the variational minimum of our ansatz can be efficiently evaluated via rank-one updates to a leverage-weighted loss minimizer."