核心概念
FLARE は、参加デバイスの計算能力に応じて学習率を動的に調整することで、非均一なデータ分布や計算能力を持つデバイス間の学習進捗の不均一性を緩和し、連合学習の収束を加速する。
摘要
本論文は、無線連合学習(WFL)における課題である、参加デバイスの非均一なデータ分布、計算能力、チャネル状態を解決するための新しいフレームワーク「FLARE」を提案している。
FLARE の主なアイデアは以下の通り:
- 参加デバイスが自身の計算能力に応じて学習率と局所的な学習反復数を調整できるようにする
- 非凸モデルや非i.i.d.データセット、不均一な計算能力を持つデバイスの存在下でも、FLAREの収束上限を厳密に解析
- 収束上限を最小化するためのデバイス選択とリソース割当の最適化手法を提案
- 問題構造の分析に基づき、バイナリサーチと新しいグリーディ手法を組み合わせた効率的なアルゴリズムを設計
- リプシッツ定数が大きいモデルに対して、線形計画問題として定式化し、低計算量のスケジューリングポリシーを提案
実験結果は、FLAREが基準手法に比べて高い精度と高速な収束を達成することを示している。提案するスケジューリングポリシーは、学習率調整なしでも優れた性能を発揮し、様々なシステムパラメータ設定に対して頑健性を示す。
统计
1つのデバイスあたりの平均局所的な学習反復数は、指数分布に従う
MNISTデータセットのモデルサイズは1×107ビット、CIFAR-10データセットのモデルサイズは6.4×107ビット
デバイスのCPU周波数は2GHz~4GHzの一様分布に従う
MNISTデータセットの1サンプルあたりのCPU cycles数は110cycles/bit、CIFAR-10データセットは85cycles/bit