この論文では、フェデレーテッドラーニング(FL)における非同期手法の重要性が強調されています。従来の同期FL方法が直面する通信の遅延や信頼性の問題を解決するために、提案された手法は更新を無差別に集約するのではなく、更新の新鮮さと統計的異質性を考慮して貢献度を調整します。これにより、FLシステム全体の収束速度が向上し、パフォーマンスが向上します。実験ではFashion-MNISTデータセットを用いて画像分類タスクが行われ、提案手法がベースライン手法よりも優れた結果を示しています。
A otro idioma
del contenido fuente
arxiv.org
Ideas clave extraídas de
by Changxin Xu,... a las arxiv.org 03-05-2024
https://arxiv.org/pdf/2402.10991.pdfConsultas más profundas