Core Concepts
KL条件を満たす非凸損失関数に対して、差分プライバシー保護の下で最適な収束レートを達成するアルゴリズムを提案した。また、KL条件を仮定しない場合でも、勾配が十分大きい間は高速な収束を示すことができることを示した。
Abstract
本研究では、KL条件を満たす非凸損失関数に対する差分プライバシー保護最適化問題を考えている。
まず、1 ≤ κ ≤ 2の場合、新しいバリアンスリダクション付きの勾配降下法アルゴリズムを提案し、過剰経験リスクに対して ˜O(√(d/(n√ρ))^κ)の収束レートを達成することを示した。この収束レートは最適に近いことも示した。
次に、κ ≥ 2の場合、弱凸関数に対して近似プロキシマルポイントアルゴリズムを差分プライバシー保護下で実装し、同様の収束レートを得た。
さらに、KLパラメータが未知の場合でも、ノイズ付き勾配降下法アルゴリズムを提案し、適応的に ˜O(√(d/(n√ρ))^(2κ/(4-κ)) + 1/(n√ρ)^(κ/2))の収束レートを達成することを示した。
最後に、KL条件を仮定しない場合でも、同じノイズ付き勾配降下法アルゴリズムが、勾配が十分大きい間は高速な収束を示すことを証明した。具体的には、最適点に近似する点を ˜O(√(d/(n√ρ))) の速さで見つけられ、最悪でも ˜O(√(d/(n√ρ))^(1/2))の速さで見つけられることを示した。
Stats
F(w) - F(w*) ≤ γ^κ ∥∇F(w)∥^κ
L0は損失関数のリップシッツ定数
L1は損失関数の滑らかさ定数
˜L1は損失関数の弱凸性定数
nはデータセットのサイズ
dは次元数
ρはゼロ集中差分プライバシーのパラメータ
βは失敗確率