核心概念
機能秘密共有(FSS)を用いることで、Split Learningにおける機能空間ハイジャック攻撃を防ぐことができる。FSS を用いることで、サーバーは元の入力データを再構築することができず、通信量と計算コストも大幅に削減できる。
要約
本研究では、機能秘密共有(FSS)を用いて Split Learningの保護を行う新しいアプローチを提案している。
まず、Split Learningにおける機能空間ハイジャック攻撃(FSHA)と視覚的反転攻撃(VIIA)について説明している。FSHA は、サーバーが悪意を持って学習タスクを変更し、クライアントのプライバシーを侵害する攻撃である。VIIA は、サーバーが中間層の活性化マップから元の入力データを推定する攻撃である。
提案手法では、クライアントが入力データに乱数マスクを加えて活性化マップを生成し、サーバーはFSSを用いてこの活性化マップ上で計算を行う。これにより、サーバーは元の入力データを再構築できず、FSHA や VIIA を防ぐことができる。
また、FSS を用いることで通信量と計算コストも大幅に削減できることを示している。提案手法は、従来のSplitLearningと同等の精度を維持しつつ、プライバシーを大幅に向上させることができる。
統計
クライアントが入力データに加える乱数マスクは、サーバーが元の入力データを再構築するのを防ぐ重要な役割を果たす。
サーバーが行う計算は、FSS を用いて秘密分散された関数を評価することで実現される。これにより、サーバーは元の関数を知ることなく計算を行うことができる。
引用
"FSS を用いることで、サーバーは元の入力データを再構築することができず、通信量と計算コストも大幅に削減できる。"
"提案手法は、従来のSplitLearningと同等の精度を維持しつつ、プライバシーを大幅に向上させることができる。"