Core Concepts
設計時に異なるエネルギー予算を満たすトレーニング可能なNNアクセラレータを使用して、FLのデバイスの異質性問題に取り組みます。
Abstract
最新の研究では、異種フェデレーテッドラーニング(FL)において、訓練中のデバイスが通常異なるエネルギー予算を持っていることが一般的です。現在のFLの展開では、特定のハードウェア要件を満たさないデバイスは協力的なトレーニングから除外されます。しかし、デバイスを除外することで利用可能なトレーニングデータが制限され、訓練されたNNモデルの精度が低下する可能性があります。これは特に特定のトレーニングサンプル(例:特定クラスの画像)がエネルギー制約のあるデバイスでしか利用できない場合、偏りや不公平さを引き起こす可能性があります。本研究では、設計時に異種デバイス向けにNNアクセラレータを活用し、圧縮された算術形式と近似計算を使用してエネルギー予算を満たすよう取り組んでいます。我々は従来手法よりも高い精度を保ちつつ、トレーニング時のエネルギー要件を4倍削減する技術を提案します。
Stats
我々は従来手法よりも高い精度を保ちつつ、トレーニング時のエネルギー要件を4倍削減する技術を提案します。
異種フェデレーテッドラーニング(FL)では、設計時に異なるエネルギー予算を持つデバイス向けに訓練可能なNNアクセラレータC1-C5構成。
データ分布が非iidまたはリソース相関型非iidである場合でも、近似アクセラレータC2-C5はグローバル精度へほとんど影響せず、トレーニングリソースを大幅に削減。
HeteroFLや小規模モデルと比較しても我々の手法は高いパフォーマンスと公平性維持能力が示されています。
FEMNISTとResNet8でも我々の手法は堅牢性が示されており、他のデータセットやNN構成でも同様です。