本論文では、連邦学習(FL)の課題に対処するための新しいアルゴリズムを提案している。
まず、クライアントの局所的な更新の精度を動的に調整する不正確性基準を設計した。この基準により、クライアントは各自の状況に応じて局所的な更新の精度を調整できるため、計算リソースの節約と遅延効果の軽減が可能となる。
次に、各クライアントの罰則パラメータを自己適応的に調整するスキームを提案した。このスキームにより、クライアントの局所モデルと大域モデルの乖離を動的に調整することで、アルゴリズムの堅牢性が向上し、適切なパラメータ選択のリスクが軽減される。
提案手法の収束性を理論的に示し、合成データと実データを用いた数値実験により、クライアントの計算負荷を64.3%削減しつつ学習過程を加速できることを実証した。
На другой язык
из исходного контента
arxiv.org
Дополнительные вопросы