Core Concepts
FLでの直交学習を使用して、FedSOLはデータの異質性に対処し、グローバル知識を保持します。
Abstract
FedSOLは、FLにおける直交学習戦略を採用し、局所学習中に直交する局所勾配を特定します。これにより、前回のグローバル知識が保持されます。さまざまなシナリオでの実験を通じて、FedSOLの効果を検証しました。FedSOLはFLでの利点を示しました。
Federated Learning(FL)はプライバシー保護しながらモデルをトレーニングする分散学習パラダイムです。標準アルゴリズムであるFedAvgは、ローカルモデルのパラメーターを平均化することで動作します。しかし、すべてのクライアントデバイスが活動的でIID分布されている場合に最適な結果が得られます。我々の研究はこのデータの異質性問題に取り組み、局所学習を修正することを目指しています。
Proximal Restriction in FLでは、データの異質性に対処する一般的な戦略として、局所学習に補助的な損失として近接目的関数を導入する方法があります。しかし、このような近接目的関数は局所目的と衝突する可能性があります。我々の研究では、重み摂動用に近接目的関数を活用し、局所学習が近接目的関数と直交するようにします。
CLでは多くのアプローチが採用されており、新しいタスク勾配が古いタスク損失空間と直交するよう調整されています。FLでは最近同様の戦略が試みられています。我々はこの問題への取り組み方針やその影響について考察しています。
Stats
FedAvg [46] 96.16(0.19)
FedProx [38] 95.86(0.12) ↓ 52.80(2.66) ↑ 58.19(0.55) ↓ 64.71(0.74) ↓ 69.37(1.21) ↓ 71.09(3.13) ↓ 40.00(3.01) ↓ 60.77(3.64) ↑ 48.20(1.95) ↓
Scaffold [28] 95.91(0.18) ↓ 62.60(0.70) ↑ 68.53(0.99) ↑ 74.28(0.
FedNTD [33] 96.
FedSAM [55]
FedASAM [6]
Quotes
"Orthogonal learning strategy helps maintain previous global knowledge during local learning."
"FedSOL effectively reduces the divergence, ensuring that local models stay closely aligned with the global model."
"Local models using FedAvg experience a significant drop in performance on the global distribution after local learning."