本論文は、連邦学習(FL)における非IID(独立同分布でない)データ分布の課題に取り組んでいる。具体的には、ドメイン内の不均一性(intra-domain heterogeneity)と、ドメイン間の不均一性(inter-domain heterogeneity)の2つの課題に着目している。
まず、ローカルクラスタリング特徴コントラストを提案する。これは、各クライアントのローカルな特徴表現をクラスタリングすることで、クラス内の詳細な情報を捉え、クライアント間の知識共有を促進する。
次に、グローバルクラスタリング特徴コントラストを提案する。これは、ローカルクラスタリング特徴を集約してグローバルクラスタリング特徴を生成し、各ローカル学習を一貫したグローバル信号で指導することで、ローカルモデルの過学習リスクを軽減し、一般化性能を向上させる。
実験結果から、提案手法FedCCLは、intra-domain heterogeneityとinter-domain heterogeneityの両方の課題に対して、既存手法と比較して優れた性能を示すことが確認された。
他の言語に翻訳
原文コンテンツから
arxiv.org
深掘り質問