本論文は、オンライン凸最適化における動的レグレットの最小化に取り組んでいる。動的レグレットは、時変の比較対象系列に対する累積損失の差を表す指標であり、非定常環境下での学習性能を評価するのに適している。
まず、既存研究では最悪ケースの動的レグレットに対する最適な上界が得られているが、問題の難易度に応じてより良い保証が得られる可能性がある。そこで本論文では、勾配変動と比較対象系列の累積損失に依存する問題依存的な動的レグレット上界を導出する。
具体的には以下の2つの問題依存的な量を考える:
これらの量は最悪ケースでもO(T)以下であるが、問題が容易な場合はより小さくなる可能性がある。
提案手法は、メタ・ベースの2層構造を持つオンラインアンサンブル法である。メタ・アルゴリズムは複数のベースアルゴリズムの予測を組み合わせて最終出力を生成し、ベースアルゴリズムは最適な学習率を見つけるためのオプティミスティックなオンライン学習を行う。アルゴリズム設計とレグレット解析の両面で、メタ・ベース間の効果的な協調を実現するための工夫が盛り込まれている。
提案手法は、勾配変動上界とスモールロス上界の両方を同時に達成できる。これにより、問題の難易度に応じて動的レグレットの上界を改善できる一方で、最悪ケースでも既存の最適な保証を維持することができる。
To Another Language
from source content
arxiv.org
Viktige innsikter hentet fra
by Peng Zhao,Yu... klokken arxiv.org 04-09-2024
https://arxiv.org/pdf/2112.14368.pdfDypere Spørsmål