核心概念
提出了一種新的聯邦學習方法FedMD-CG,通過利用知識蒸餾和條件生成器實現了高性能和高隱私保護,並確保了本地生成器和分類器的一致性。
摘要
本文提出了一種新的聯邦學習方法FedMD-CG,旨在實現高性能和高隱私保護。主要包括以下內容:
每個客戶端將本地模型分解為特徵提取器和分類器,並使用條件生成器代替特徵提取器進行服務器端模型聚合。
在客戶端,FedMD-CG利用知識蒸餾在潛在特徵層面和邏輯層面訓練本地模型和生成器,確保本地生成器和分類器的一致性。同時,還設計了額外的分類損失和多樣性損失來增強客戶端的訓練。
在服務器端,FedMD-CG以交叉的數據自由知識蒸餾方式聚合本地生成器和分類器,以盡可能多地提取知識。
實驗結果表明,FedMD-CG在性能、收斂速度和隱私保護方面都優於現有的基線方法。
統計資料
聯邦學習是一種分佈式學習框架,只共享模型參數或梯度更新,而不共享私有數據。
聯邦學習容易受到隱私推斷攻擊的風險,現有的隱私保護機制通常會降低性能和效率。
本文提出的FedMD-CG方法在保持高性能的同時實現了高水平的隱私保護。
引述
"FedMD-CG 利用知識蒸餾在潛在特徵層面和邏輯層面訓練本地模型和生成器,確保本地生成器和分類器的一致性。"
"FedMD-CG 在服務器端以交叉的數據自由知識蒸餾方式聚合本地生成器和分類器,以盡可能多地提取知識。"