Conceitos Básicos
Non-IID issue in federated learning is addressed through Gradient Harmonization, improving performance across diverse scenarios.
Resumo
フェデレーテッドラーニング(FL)は、プライバシーを保護しながらグローバルモデルを共同でトレーニングするためのパラダイムであり、非独立かつ同一分布(non-IID)データとデバイスの異質性によって制約されています。本文では、複数のクライアント間で勾配の衝突現象を調査し、強い異質性がより深刻な勾配の衝突につながることを明らかにします。この問題に対処するために、FedGHという効果的な方法を提案しました。FedGHは、Gradient Harmonizationを介して局所的なドリフトを軽減し、様々なベンチマークやnon-IIDシナリオで多くの最新技術のFLベースラインを向上させることが実証されています。これにより、強い異質性のシナリオでは特に顕著な改善が見られます。
Estatísticas
100 communication rounds involving 5 clients within two distinct non-IID scenarios.
Larger number of clients exacerbates the gradient conflict phenomenon.
Projection of one gradient onto the orthogonal plane of the other to enhance client consensus during server aggregation.
Citações
"Stronger heterogeneity leads to more severe local drifts, consequently inducing more violent gradient conflicts."
"We propose FedGH, a simple yet effective method that mitigates local drifts through Gradient Harmonization."
"FedGH consistently enhances multiple state-of-the-art FL baselines across diverse benchmarks and non-IID scenarios."