Основні поняття
エントロピック最適輸送によるプライバシー保護データからの生成モデルトレーニングの枠組みを開発しました。
Анотація
この論文では、局所的な差分プライバシー(LDP)を使用して、異なるプライバシー保護されたデータから生成敵対的ネットワーク(GANs)をトレーニングするための枠組みが提案されています。エントロピック最適輸送により、ジェネレータは元の(非プライバシー保護)データ分布を学習できます。さらに、実験的証拠が提供され、この枠組みの効果を支持しています。
Статистика
PG(Z) → PX for the minimizer Gn of the entropically regularized version of (3) provided that the generator class G is expressive enough to generate PX.
For Laplace mechanism and LDP budget ϵ we set the ℓ1 sensitivity to be ∆ = supx,x′∈X ∥f(x) − f(x′)∥1 and the noise scale σ = ∆/ϵ.
For Gaussian mechanism and LDP budget ϵ we set the ℓ2 sensitivity to be ∆ = supx∈X ∥f(x) − f(x′)∥2 and the noise scale σ satisfies (10).
Цитати
"Entropic regularization of optimal transport uniquely enables the mitigation of both the effects of privatization noise and facilitating convergence."
"Learning from privatized data requires rethinking machine learning methods to extract accurate and useful population-level models from the privatized (noisy) data."
"Entropic Optimal Transport GANs has been leveraged primarily for its computational benefits, enabling an efficient approximation of the optimal transport problem."