本論文は、連合学習(Federated Learning)の課題に取り組むため、集約勾配と適応型学習率を提案している。
連合学習では、複数のクライアントがそれぞれのデータを用いて並列に学習を行い、中央サーバーが各クライアントのモデルパラメータを集約して更新するというフレームワークである。しかし、クライアント間の異質なデータ分布や、クライアントの局所的な学習が収束速度の低下を招くという課題がある。
本論文では、以下の2つの手法を提案している:
集約勾配: 各クライアントの局所的な学習において、全クライアントの勾配を集約して用いる。これにより、クライアント間の異質性の影響を軽減する。
適応型学習率: 各クライアントの学習率を、局所的なモデルパラメータと平均パラメータの乖離に応じて動的に調整する。これにより、クライアントのドリフトを抑制し、収束速度を向上させる。
さらに、クライアント間の情報共有を必要としない平均場理論に基づいて、各クライアントの最適な適応型学習率を導出する手法を提案している。
理論的な収束性の解析と、実験結果の分析から、提案手法が既存の連合学習手法に比べて優れたパフォーマンスと収束速度を示すことが確認された。
다른 언어로
소스 콘텐츠 기반
arxiv.org
더 깊은 질문