Основные понятия
分散学習では、クライアントが直接モデルパラメータを共有するため、プライバシーリスクが高まる。本研究では、クライアントの脱落にも耐性のある秘密分散共有に基づくプライバシー保護型の集約手法を提案する。
Аннотация
本研究は、分散学習環境におけるプライバシー保護と脱落耐性を両立する3つの新しいアプローチを提案している。
-
Shamir秘密分散共有を用いた集約手法(PPDL-NV)
- クライアントはモデルパラメータを秘密分散共有し、集約する
- 脱落したクライアントでも集約が可能
-
LWEに基づくマスキング手法(PPDL-LWE)
- クライアントはモデルパラメータをLWEに基づいてマスクし、集約する
- 差分プライバシーを実現し、脱落にも耐性がある
-
ペアワイズマスキングとDiffie-Hellmanキー交換を組み合わせた手法(PPDL-PW)
- クライアントはペアワイズでマスクを生成し、集約する
- Shamir秘密分散共有を用いて脱落耐性を実現
これらの手法は、プライバシーを保護しつつ、クライアントの脱落にも耐性のある分散学習を実現する。実験結果から、提案手法は従来手法に比べて高い効率性と精度を示すことが分かった。
Статистика
50クライアントの場合、CIFAR-10データセットでDLは74.46%の精度に対し、PPDL-LWEは62.12%の精度(ε=11.31)
100クライアントの場合、SVHN データセットでDLは92.12%の精度に対し、PPDL-LWEは82.47%の精度(ε=11.00)
Цитаты
"分散学習では、クライアントが直接モデルパラメータを共有するため、プライバシーリスクが高まる。"
"本研究では、クライアントの脱落にも耐性のある秘密分散共有に基づくプライバシー保護型の集約手法を提案する。"