本論文では、クライアントが単一のクラスのデータしか持たない状況下で、埋め込みネットワークを学習する連邦学習の手法を提案する。
各クライアントは、クラス内分散を最小化し、クラス間分散を最大化するコントラスティブ学習損失を用いて、ローカルモデルを更新する。
しかし、真のクラスプロトタイプを共有すると、プライバシー情報が漏洩する可能性がある。そこで、プロキシクラスプロトタイプを生成し、これを共有する手法を提案する。
プロキシクラスプロトタイプは、真のクラスプロトタイプと、その最近傍のプロトタイプを線形結合することで生成される。
これにより、プライバシー情報の漏洩を抑えつつ、識別的な埋め込みネットワークを学習できる。
提案手法は、FedGN(ガウシアンノイズ付加)やFedCS(コサイン類似度制約)と比較して、高い精度とプロトタイプ漏洩の低さを示す。
また、理論的な収束性の分析も行っている。
CIFAR-100、VoxCeleb1、VGGFace2の各ベンチマークデータセットで、提案手法の有効性を実証的に示している。
他の言語に翻訳
原文コンテンツから
arxiv.org
深掘り質問