クライアントのデータ分布の多様性を考慮することで、連邦学習の収束速度を改善する。
合成データのシャッフリングは、データ異質性の下での連邦学習のコンバージェンスを加速させることができる。
MimiCアルゴリズムは、クライアントの脱落に起因する目的関数のずれを修正することで、連邦学習の収束性を改善する。
本論文では、連邦学習環境における決定木の集約プロセスを提案する。このプロセスは、クライアントの決定木を集約して解釈可能な単一の大域的決定木を構築する。この集約プロセスは、クライアントの決定木の品質を評価し、高品質な決定木のみを選択して集約することで、大域的決定木の性能を向上させる。
連邦学習では、分散した学習クライアントが協調して単一のモデルを訓練しますが、クライアントの局所的な更新と非IIDデータにより、局所的な最適解がグローバルな目的関数から大きくかけ離れてしまう問題があります。本研究では、最適化と一般化の両方の観点から、動的な正則化とグローバルなSharpness Aware Minimization (SAM)最適化を組み合わせた新しいアルゴリズムFedSMOOを提案し、一貫性のある平滑な損失関数を効率的に探索します。