核心概念
提出一種新的聯邦學習方法FedLD,通過損失分解和針對性的策略,同時降低本地損失、分布偏移損失和聚合損失,有效解決聯邦學習中的數據異質性問題。
摘要
本文提出了一種新的聯邦學習方法FedLD,旨在解決聯邦學習中的數據異質性問題。首先,作者對聯邦學習的全局損失函數進行了分解,將其分為三個部分:本地損失、分布偏移損失和聚合損失。這一分解框架有助於分析不同操作對聯邦學習性能的影響。
為了降低這三個損失項,FedLD提出了兩個策略:
在客戶端的本地訓練中引入邊界控制正則化,鼓勵模型學習更加穩定的特徵,從而減少分布偏移損失。
在服務器端提出一種基於主成分梯度的聚合策略,通過優先考慮有利於所有客戶端的主要方向,同時丟棄引起衝突的方向,從而降低聚合損失。
實驗結果表明,FedLD在不同程度的數據異質性下,在視網膜和胸部X光分類任務上均優於其他聯邦學習算法。這說明FedLD能夠有效地降低數據異質性對聯邦學習性能的影響。
統計資料
在數據異質性較低(Split-1)的情況下,FedAvg的最終測試準確率為83.63%。
在數據異質性較高(Split-2)的情況下,FedAvg的最終測試準確率為82.26%。
在數據異質性極高(Split-3)的情況下,FedAvg的最終測試準確率為81.13%。