Core Concepts
連邦学習において、クライアントの参加統計が未知で不均一な場合、適応的な重み付けを用いることで、元の目的関数を最小化できる。
Abstract
本論文では、連邦学習(FL)における未知の参加統計の問題に取り組んでいる。
従来のFLアルゴリズムであるFedAvgでは、クライアントの参加統計が未知で不均一な場合、最適な解に収束しない可能性がある。
そこで本論文では、クライアントの参加履歴に基づいて、パラメータ集約の重みを適応的に調整するFedAUアルゴリズムを提案している。
FedAUの収束性を理論的に分析し、適切な重み推定により、元の目的関数を最小化できることを示している。
実験結果からも、FedAUが既存手法に比べて優れた性能を示すことを確認している。
Stats
クライアントnの参加確率をpnと定義すると、FedAvgでは1/Nの重みで集約すると、実際に最小化されるのは1/P * Σ(ωnpn)Fnの目的関数となる。ここでP = Σ(ωnpn)。
FedAUでは、クライアントnの参加履歴から、ωnを1/pnに近づけるように推定する。
Quotes
"An important open problem is to find a lightweight method for FL in the presence of clients with unknown participation rates."
"We provide a theoretical convergence analysis of FedAU using a novel methodology to connect the estimation error and convergence."