核心概念
文章探討了在聯邦學習中,僅憑藉安全聚合(SA)技術本身而不額外添加雜訊,是否足以保證差分隱私(DP)。
摘要
文獻資訊
- 標題:在沒有額外添加雜訊的情況下,差分隱私聯邦學習何時可行?
- 作者:張江、Konstantinos Psounis、Salman Avestimehr
- 機構:南加州大學,美國洛杉磯
研究目標
本研究旨在探討在聯邦學習中,僅憑藉安全聚合(SA)技術本身而不額外添加雜訊,是否足以保證差分隱私(DP),並分析其可行條件及隱私保護程度。
方法
- 本文首先分析了聯邦學習中使用安全聚合技術的現狀,以及現有研究使用互信息(MI)作為隱私洩漏度量的局限性。
- 然後,本文從理論上推導了在使用FedSGD 協議時,安全聚合技術能夠提供差分隱私保證的必要條件,即每個用戶模型更新的空間必須包含在所有其他用戶聚合模型更新的空間內。
- 針對高斯採樣雜訊和非奇異協方差矩陣的情況,本文進一步證明了在滿足特定條件下,聚合模型更新可以為個別用戶的本地數據集提供差分隱私保證,並給出了DP 𝜖的界限。
主要發現
- 安全聚合技術本身並不能保證差分隱私,需要滿足特定條件才能實現。
- 當使用高斯採樣雜訊且協方差矩陣非奇異時,在滿足特定條件下,安全聚合技術可以提供差分隱私保證,其隱私級別𝜖受協方差矩陣最小特徵值的倒數限制。
- 在實際應用中,特別是在深度學習模型中,這些條件很難滿足,因此通常需要在模型更新中添加額外的雜訊才能保證差分隱私。
主要結論
- 雖然安全聚合技術本身不能完全保證差分隱私,但在特定條件下,可以利用其固有的隨機性來減少實現相同隱私級別所需的額外雜訊量。
- 未來研究方向包括探索更通用的條件,以及如何利用聚合模型更新中的固有隨機性來進一步提高差分隱私的效率。