Основные понятия
本論文では、プライバシー制約下での分散型多タスク学習の2つの方法論的進展を提示する。第1に、これまでガウス混合モデルに限定されていたCollabDictフレームワークを、異常検知に焦点を当てた変分オートエンコーダ(VAE)に拡張する。第2に、CollabDictで学習したモデルを外部で共有する際のデータプライバシー漏洩リスクについて、数学的分析を行う。
Аннотация
本論文では、分散型多タスク学習における2つの重要な課題に取り組んでいる。
- CollabDictフレームワークの拡張:
- これまでCollabDictはガウス混合モデルに限定されていたが、本論文ではVAEを導入することで、より高度な異常検知が可能になった。
- VAEは確率的な予測分布を提供するため、正常範囲を原理的に定量化できる。
- VAEベースのCollabDictは、ガウス混合モデルと同じ混合表現の異常スコアを持つことを示し、CollabDictの一般性を実証した。
- 外部プライバシー漏洩の分析:
- CollabDictで学習したモデルを外部で共有する際のデータプライバシー漏洩リスクについて、数学的分析を行った。
- ガウス混合モデルのCollabDictでは、Rényi微分プライバシー基準を満たすことを示した。
- また、学習過程での内部プライバシー侵害をモニタリングするための実用的な指標を提案した。
Статистика
任意の2つのサンプル間のℓ2距離は上限Rで抑えられる
局所更新後、平均サンプル数が閾値δ以上の混合成分のみを保持する