Core Concepts
근사결정론적이고 과소모수화된 대리 모델의 일반화 오차를 분석하고, 이를 효율적으로 다룰 수 있는 앙상블 접근법을 제안한다.
Abstract
이 논문은 근사결정론적이고 과소모수화된 대리 모델의 일반화 오차를 분석하고 있다. 이러한 모델은 과학 및 공학 분야에서 널리 사용되는데, 모형 오류로 인해 표준 베이지안 추론으로는 매개변수 불확실성을 과소평가하게 된다.
주요 내용은 다음과 같다:
각 훈련 데이터 포인트에 대한 최적 매개변수 집합(POPS)을 정의하고, 일반화 오차를 피하기 위해서는 매개변수 분포가 모든 POPS에 질량을 가져야 함을 보였다.
이를 만족하는 앙상블 접근법을 제안하였으며, 선형 모델의 경우 랭크-1 업데이트를 통해 효율적으로 구현할 수 있음을 보였다.
제안한 접근법을 다양한 선형 회귀 문제에 적용하여, 테스트 오차에 대한 강건한 상한을 제공하고 실제 테스트 오차 분포를 잘 예측함을 확인하였다.
특히, 원자 단위 기계학습 문제에 적용하여 우수한 성능을 보였다.
Stats
근사결정론적 대리 모델의 일반화 오차는 1/ϵ^2 의 발산 항을 포함한다.
최소 손실 해법은 매개변수 불확실성을 과소평가한다.
Quotes
"Parameter distributions must have mass in every POPS to avoid a divergent generalization error."
"For linear models, the variational minimum of our ansatz can be efficiently evaluated via rank-one updates to a leverage-weighted loss minimizer."