Core Concepts
連邦対照学習は分散型の非監視学習アプローチであり、メンバーシップ情報の漏洩リスクが存在する。本研究では、受動的メンバーシップ推論攻撃と能動的メンバーシップ推論攻撃の2つの手法を提案し、その有効性を実験的に検証した。
Abstract
本研究は、連邦対照学習におけるメンバーシップ情報の漏洩可能性を初めて調査したものである。
連邦対照学習の概要:
連邦学習の一種で、クライアントが自身の非ラベル付きデータを用いて協調的に特徴エンコーダを学習する。
中央サーバーが各クライアントの局所モデルを集約して、グローバルなエンコーダを更新する。
従来の連邦学習とは異なり、ラベル付きデータを必要としない点が特徴。
メンバーシップ情報の漏洩リスク:
連邦対照学習は分散型の学習であるため、メンバーシップ情報の漏洩リスクが存在する。
攻撃者はクライアントの立場から、モデルの推論出力を利用してメンバーデータの判別を試みる。
提案手法:
受動的メンバーシップ推論攻撃:
コサイン類似度に基づく攻撃
モデル内部に基づく攻撃
特徴量の組み合わせに基づく攻撃
能動的メンバーシップ推論攻撃:
勾配上昇法を用いて、メンバーデータとノンメンバーデータの損失の違いを利用する。
実験結果:
提案手法は、SVHN、CIFAR-10、CIFAR-100のデータセットで高い精度を達成した。
連邦対照学習モデルの過剰適合が進むと、メンバーシップ情報の漏洩リスクが高まることが示された。
Stats
非メンバーデータの損失は、メンバーデータに比べて大幅に増加する。
メンバーデータの最大予測確率は非メンバーデータに比べて顕著に高い。
Quotes
"連邦対照学習は分散型の非監視学習アプローチであり、メンバーシップ情報の漏洩リスクが存在する。"
"本研究では、受動的メンバーシップ推論攻撃と能動的メンバーシップ推論攻撃の2つの手法を提案し、その有効性を実験的に検証した。"