核心概念
分散型学習では、モデルの更新情報を共有することでプライバシーが侵害される可能性がある。SHATTER は、各ノードが複数の仮想ノードを操作し、モデルのパラメータを部分的に共有することで、プライバシーを保護しつつ学習を行う。
要約
分散型学習(DL)では、ノードが協力して機械学習モデルを学習するが、モデルの更新情報の共有によりプライバシーが侵害される可能性がある。従来のプライバシー保護手法では、ノイズ添加や安全な集約などにより、プライバシーと収束性のトレードオフが生じていた。
SHATTERは、各ノードが複数の仮想ノード(VN)を操作し、VNが部分的なモデルパラメータを共有することで、プライバシーを保護しつつ学習を行う。具体的には以下の3ステップで動作する:
各ノードがローカルモデルを複数のチャンクに分割し、それぞれのVNに割り当てる
VNが通信トポロジ上で他のVNとモデルチャンクを交換する
VNが受け取ったチャンクを元のノードに返送し、ノードがそれらを統合してモデルを更新する
この手法により、モデル全体を共有することなく学習が進むため、プライバシー攻撃の効果が大幅に低減される。理論的な分析と実験的評価の結果、SHATTERはプライバシー保護と学習性能の両立を実現できることが示された。
統計
ノードが受け取るモデルパラメータの数は、仮想ノードの数を増やすことで減少する。
ノードが受け取る完全なモデルを持つ確率も、仮想ノードの数を増やすことで減少する。