Conceitos Básicos
Omegaは、過去の勾配の指数移動平均を更新ルールに組み込むことで、ノイズの影響を和らげる最適化的な手法である。
Resumo
本論文では、確率的ミニマックス最適化の課題に取り組むOmegaアルゴリズムを提案している。
- 従来の確率的最適化的勾配法(ISOG)は、ノイズの影響を受けやすく、収束が不安定になる問題がある。
- Omegaは、過去の勾配の指数移動平均(EMA)を更新ルールに組み込むことで、ノイズの影響を和らげる。
- Omegaは、ISGOと同等の計算コストで、バイリニア問題やクアドラティック-リニア問題において優れた性能を示す。
- 一方、クアドラティック問題では、ISGOやモーメンタム付きのSGDに劣る。
- 今後の課題として、Omegaの収束性の理論的な解析が重要である。また、GANの学習などの実応用での評価が期待される。
Estatísticas
100次元のバイリニア問題において、SGDは発散するが、ISOGとOmegaは最適解に収束する。Omegaはより速く収束する。
100次元のクアドラティック問題では、SGD、ISOG、Omega、SGDM、OmegaMいずれも線形収束を示す。モーメンタム付きの手法がわずかに速い収束を示す。
100次元のクアドラティック-リニア問題では、Omegaがクアドラティック部分にSGD、リニア部分にOmegaを用いた場合に、他の手法よりも速く最適解に収束する。