Core Concepts
本論文では、パラメータに依存せずに最適な収束率を達成する加速ストochastic最適化手法を提案する。この手法は、既存の手法と比べて問題パラメータに関する事前知識を必要としない。
Abstract
本論文では、パラメータフリーの加速ストochastic最適化手法であるU-DoGを提案している。U-DoGは、UniXGradとDoGを組み合わせた手法で、イテレーションの安定性を確保するための新しい手法を導入している。
具体的には以下の特徴がある:
最適化問題のパラメータ(滑らかさ定数、初期点と最適点の距離など)を事前に知る必要がない
緩い上界さえあれば十分で、高確率の収束保証を得られる
非滑らかな問題に対しても近最適な収束率を達成する
U-DoGの主なアイデアは以下の通り:
UniXGradのステップサイズの分子にDoGと同様に初期点からの最大距離を使う
UniXGradのモーメンタムパラメータをこの最大距離に基づいて自動調整する
UniXGradのステップサイズの分母を修正し、イテレーションの安定性を確保する
これらの工夫により、U-DoGは既存手法と比べて大幅に柔軟性が高く、パラメータに依存せずに最適な収束率を達成できる。
Stats
最適化問題のパラメータ(滑らかさ定数β、初期点と最適点の距離d0、ノイズの上界σ)を事前に知る必要がない
緩い上界さえあれば十分で、高確率の収束保証を得られる
非滑らかな問題に対しても近最適な収束率を達成する