Temel Kavramlar
本稿では、分割学習におけるラベル漏洩問題に対し、ラベル空間の次元変換を用いることで、攻撃者にとってラベル推論を困難にする新しい防御手法「SECDT」を提案する。
Özet
分割学習におけるラベル漏洩対策:安全な次元変換による偽ラベルでの学習
本稿は、分割学習におけるラベル漏洩問題に対する新たな防御手法「SECDT」を提案する研究論文の要約です。
分割学習は、データプライバシーを保護しながら共同で機械学習モデルを学習する手法として注目されています。しかし、近年の研究で、悪意のある参加者が学習プロセス中にやり取りされる勾配情報を利用して、ラベル所有者のプライベートラベルを推測する攻撃が可能であることが明らかになってきました。本研究は、分割学習におけるラベル漏洩に対する防御策を提案し、学習済みモデルの高い有用性を維持しながら、既存のラベル推論攻撃から効果的に防御することを目的としています。
本稿では、ラベル漏洩に対して、次元変換、勾配正規化、ランダム化という3つの要素から成る防御手法「SECDT」を提案しています。
次元変換
ラベル空間の次元を拡張することで、攻撃者にとってラベル推論を困難にすることを目的としています。具体的には、元のラベルを多クラスラベルに変換する次元増加変換と、推論時に元のラベル次元に戻す次元削減変換を提案しています。
勾配正規化
勾配の大きさに基づく攻撃を緩和するために、勾配の大きさを正規化する手法を提案しています。具体的には、ミニバッチ内の全ての勾配のℓ2ノルムの平均値を標準ノルムとして使用し、各勾配を正規化します。
ランダム化
攻撃者が次元変換の情報を推測することを防ぐために、Softmax正規化ガウスノイズを導入し、次元変換後のラベルにノイズを加えることで、攻撃者にとって次元変換の情報を不可知にすることを目的としています。