本研究では、機能秘密共有(FSS)を用いて Split Learningの保護を行う新しいアプローチを提案している。
まず、Split Learningにおける機能空間ハイジャック攻撃(FSHA)と視覚的反転攻撃(VIIA)について説明している。FSHA は、サーバーが悪意を持って学習タスクを変更し、クライアントのプライバシーを侵害する攻撃である。VIIA は、サーバーが中間層の活性化マップから元の入力データを推定する攻撃である。
提案手法では、クライアントが入力データに乱数マスクを加えて活性化マップを生成し、サーバーはFSSを用いてこの活性化マップ上で計算を行う。これにより、サーバーは元の入力データを再構築できず、FSHA や VIIA を防ぐことができる。
また、FSS を用いることで通信量と計算コストも大幅に削減できることを示している。提案手法は、従来のSplitLearningと同等の精度を維持しつつ、プライバシーを大幅に向上させることができる。
다른 언어로
소스 콘텐츠 기반
arxiv.org
더 깊은 질문