แนวคิดหลัก
本研究では、層ごとのモデル更新を活用することで、遅延者の存在下でも低遅延かつ高性能な同期型連合学習を実現する手法を提案する。
บทคัดย่อ
本論文では、同期型連合学習(FL)における遅延者の問題に取り組むため、層ごとのモデル更新を活用する手法「SALF」を提案している。
主な内容は以下の通り:
- 従来の同期型FLでは、遅延者の存在により全体の学習が遅延してしまう問題がある。これを解決するため、SALF では層ごとの更新を行う。
- 各ユーザーは期限内に計算できた層までのグラジエントを送信する。サーバーは層ごとに異なるユーザーのグラジエントを平均化して、グローバルモデルを更新する。
- 理論的な分析により、SALFは従来のFLと同等の収束速度を持つことを示した。また、深い畳み込みニューラルネットワークの学習においても有効であることを実験的に示した。
สถิติ
各ユーザーのデータセットの分散は、ユーザーごとに σ2
u 以下に抑えられている。
各ユーザーのグラジエントの2乗平均は、ユーザーごとに G2 以下に抑えられている。
คำพูด
"本研究では、層ごとのモデル更新を活用することで、遅延者の存在下でも低遅延かつ高性能な同期型連合学習を実現する手法を提案する。"
"理論的な分析により、SALFは従来のFLと同等の収束速度を持つことを示した。"