Główne pojęcia
リソース対応型ニューラルアーキテクチャ検索を用いて、リソース多様性のある端末デバイスに特化したモデルを配備し、連合学習の効率を高める。
Streszczenie
本論文では、リソース対応型連合学習(RaFL)を提案している。RaFLは、ニューラルアーキテクチャ検索(NAS)を用いて、端末デバイスの計算リソースに合わせた特化モデルを配備する。これにより、データ多様性とシステム/リソース多様性の両方の課題に対処できる。
具体的には以下の3つの主要な段階からなる:
- リソース対応型モデル特化: 重み共有スーパーネットワークからリソース制約に合わせた特化モデルを抽出する。
- ローカル知識融合: 小型の知識ネットワークを用いて、ディープミューチュアルラーニングによりローカルモデルと知識ネットワークを共同学習する。
- クラウド知識統合: クライアントから受け取った知識ネットワークを統合し、オプションとしてアンサンブル蒸留を行う。
これにより、リソース多様性のある端末デバイスに最適化されたモデルを配備でき、通信効率も向上する。実験結果から、RaFLは従来手法に比べて優れたリソース効率と学習効率を示すことが分かった。
Statystyki
端末デバイスの計算リソースは大きく異なり、同一のモデルアーキテクチャを配備するとリソース利用効率が低下する。
RaFLでは、端末デバイスの計算リソース制約に合わせて最適化されたニューラルアーキテクチャを配備できるため、リソース利用効率が90%以上に達する。
一方、従来手法では端末デバイスの最も低いリソース容量に合わせたモデルを配備するため、リソース利用効率は55%~63%に留まる。
Cytaty
"RaFLは、リソース対応型ニューラルアーキテクチャ検索を用いて、リソース多様性のある端末デバイスに特化したモデルを配備し、連合学習の効率を高める。"
"RaFLは、小型の知識ネットワークを用いてディープミューチュアルラーニングを行い、ローカルモデルと知識ネットワークを共同学習する。"
"RaFLは、クライアントから受け取った知識ネットワークを統合し、オプションとしてアンサンブル蒸留を行うことで、知識融合の頑健性を高める。"