この論文では、フェデレーテッドラーニング(FL)における非同期手法の重要性が強調されています。従来の同期FL方法が直面する通信の遅延や信頼性の問題を解決するために、提案された手法は更新を無差別に集約するのではなく、更新の新鮮さと統計的異質性を考慮して貢献度を調整します。これにより、FLシステム全体の収束速度が向上し、パフォーマンスが向上します。実験ではFashion-MNISTデータセットを用いて画像分類タスクが行われ、提案手法がベースライン手法よりも優れた結果を示しています。
На другой язык
из исходного контента
arxiv.org
Дополнительные вопросы