分散型学習(DL)では、ノードが協力して機械学習モデルを学習するが、モデルの更新情報の共有によりプライバシーが侵害される可能性がある。従来のプライバシー保護手法では、ノイズ添加や安全な集約などにより、プライバシーと収束性のトレードオフが生じていた。
SHATTERは、各ノードが複数の仮想ノード(VN)を操作し、VNが部分的なモデルパラメータを共有することで、プライバシーを保護しつつ学習を行う。具体的には以下の3ステップで動作する:
この手法により、モデル全体を共有することなく学習が進むため、プライバシー攻撃の効果が大幅に低減される。理論的な分析と実験的評価の結果、SHATTERはプライバシー保護と学習性能の両立を実現できることが示された。
翻译成其他语言
从原文生成
arxiv.org
更深入的查询