핵심 개념
Momentum significantly accelerates convergence in Federated Learning, especially under data heterogeneity.
초록
フェデレーテッドラーニングにおけるモメンタムの導入が収束を著しく加速し、特にデータの異質性下で有益であることが示されました。この研究では、FEDAVGとSCAFFOLDアルゴリズムにモメンタムを導入して、新たな変数削減手法を提案しました。実験結果は、モメンタムを利用した変数削減手法が従来の手法よりも優れた収束率を達成することを示しています。
통계
R = 32, N = 10, K = 16
データ分布パラメータ:0.5(軽度の異質性)、0.1(重度の異質性)
S = 2(部分的なクライアント参加)
인용구
"FEDAVG-M and SCAFFOLD-M significantly outperform the vanilla FEDAVG and SCAFFOLD."
"Momentum variants make simple and practical adjustments to FEDAVG and SCAFFOLD yet obtain state-of-the-art performance."