Core Concepts
ガウシアンプロセス回帰では、事後分布のサンプリングや平均の計算が大規模な線形方程式の解を求めることに帰着される。本研究では、この線形方程式をうまく解くための確率的勾配降下法を提案し、その有効性を示す。
Abstract
本研究では、ガウシアンプロセス回帰のための新しい確率的勾配降下法であるStochastic Dual Descent (SDD)を提案している。
SDD の特徴は以下の通り:
双対目的関数を用いることで、より良い条件数を持つ。
確率的近似には、ランダムな座標を用いることで、乗法的なノイズを持つ勾配推定量を得る。
Nesterovのモーメンタムと幾何平均を用いることで、収束速度を高める。
実験では、以下の結果を示している:
UCI回帰ベンチマークでは、既存手法と同等以上の性能を示す。
大規模ベイズ最適化タスクでは、既存手法を上回る。
分子結合親和性予測タスクでは、グラフニューラルネットワークと同等の性能を示す。
以上より、適切に設計された確率的勾配降下法がガウシアンプロセス回帰に非常に有効であることが示された。
Stats
ガウシアンプロセス回帰の目的関数は1/2∥b - Kα∥2 + λ/2∥α∥2
双対目的関数は1/2∥α∥2
K+λI - αTb
双対勾配は g(α) = λα - b + Kα
Quotes
"As is well known, both sampling from the posterior and computing the mean of the posterior in Gaussian process regression reduces to solving a large linear system of equations."
"We show that when done right—by which we mean using specific insights from the optimisation and kernel communities—stochastic gradient descent is highly effective."