本文提出了一種新的聯邦學習方法FedLD,旨在解決聯邦學習中的數據異質性問題。首先,作者對聯邦學習的全局損失函數進行了分解,將其分為三個部分:本地損失、分布偏移損失和聚合損失。這一分解框架有助於分析不同操作對聯邦學習性能的影響。
為了降低這三個損失項,FedLD提出了兩個策略:
在客戶端的本地訓練中引入邊界控制正則化,鼓勵模型學習更加穩定的特徵,從而減少分布偏移損失。
在服務器端提出一種基於主成分梯度的聚合策略,通過優先考慮有利於所有客戶端的主要方向,同時丟棄引起衝突的方向,從而降低聚合損失。
實驗結果表明,FedLD在不同程度的數據異質性下,在視網膜和胸部X光分類任務上均優於其他聯邦學習算法。這說明FedLD能夠有效地降低數據異質性對聯邦學習性能的影響。
翻译成其他语言
从原文生成
arxiv.org
更深入的查询