本論文は、分散学習における差分プライバシーの保証を提案する。分散学習では、データを保有するユーザーが直接通信し合って学習を行うため、プライバシーの保護が重要となる。
提案手法DECORでは、ユーザー間で共有する秘密情報を利用して相関ガウシアンノイズを生成し、ローカルモデルに注入することで、プライバシーを保護する。相関ノイズの一部は通信時のモデル平均化によってキャンセルされ、残った無相関ノイズがモデルの差分プライバシーを保証する。
理論的には、DECORは任意の接続グラフトポロジーにおいて、中央集権型の差分プライバシーの最適なプライバシー-効用トレードオフを達成することを示した。また、提案するSecLDPという新しい差分プライバシーの定義を用いて、外部の盗聴者や好奇心のあるユーザーに対するプライバシー保証を与えた。
実験的にも、DECORは従来の局所的差分プライバシーに基づくアプローチと比べて大幅な性能改善を示し、中央集権型の差分プライバシーと同等の性能を達成することを確認した。
翻譯成其他語言
從原文內容
arxiv.org
深入探究