本論文は、連邦学習(FL)における重み集約の新しい手法を提案している。従来の手法では、各クライアントの局所モデル全体に対して単一の比率を適用していたが、提案手法EWWA-FLでは、各パラメータ要素ごとに異なる比率を適用する。
具体的には、以下の手順で行う:
この要素ごとの適応的な集約手法により、従来手法に比べて高い汎化性能と収束速度を実現できることを、様々なニューラルネットワークアーキテクチャとベンチマークデータセットを用いた実験で示している。特に、クラス数の多いデータセットにおいて顕著な性能向上が見られた。
На другой язык
из исходного контента
arxiv.org
Дополнительные вопросы