Core Concepts
エッジデバイスの計算・通信コストを大幅に削減しつつ、従来の連邦自己教師あり学習と同等の性能を達成する層単位連邦自己教師あり学習アプローチ。
Abstract
本論文は、連邦学習(FL)と自己教師あり学習(SSL)を統合したアプローチ(FedSSL)について探究している。FedSSLは、エッジデバイスに分散された生データを活用できるが、SSL及びFLアルゴリズムが高い計算・通信コストを課すため、エッジデバイスが苦戦することが課題となっている。
そこで本論文では、LW-FedSSLと呼ばれる層単位のFedSSLアプローチを提案する。LW-FedSSLでは、エッジデバイスが1層ずつモデルを段階的に学習できるようにする。また、サーバ側の校正メカニズムと表現の整合性メカニズムを導入することで、従来のFedSSLと同等の性能を維持しつつ、クライアントの資源要件を大幅に削減できる。
実験の結果、LW-FedSSLはメモリ要件が3.3倍、通信コストが3.2倍低減できることが示された。さらに、段階的な学習アプローチであるProg-FedSSLを提案し、従来のFedSSLを上回る性能を達成しつつ、1.8倍の通信コスト削減が可能であることを示した。
Stats
クライアントのメモリ要件はFedMoCoの3.3倍低い
クライアントの通信コストはFedMoCoの3.2倍低い
Prog-FedSSLはFedMoCoより1.8倍通信コストが低い