最新の研究では、異種フェデレーテッドラーニング(FL)において、訓練中のデバイスが通常異なるエネルギー予算を持っていることが一般的です。現在のFLの展開では、特定のハードウェア要件を満たさないデバイスは協力的なトレーニングから除外されます。しかし、デバイスを除外することで利用可能なトレーニングデータが制限され、訓練されたNNモデルの精度が低下する可能性があります。これは特に特定のトレーニングサンプル(例:特定クラスの画像)がエネルギー制約のあるデバイスでしか利用できない場合、偏りや不公平さを引き起こす可能性があります。本研究では、設計時に異種デバイス向けにNNアクセラレータを活用し、圧縮された算術形式と近似計算を使用してエネルギー予算を満たすよう取り組んでいます。我々は従来手法よりも高い精度を保ちつつ、トレーニング時のエネルギー要件を4倍削減する技術を提案します。
Vers une autre langue
à partir du contenu source
arxiv.org
Questions plus approfondies