מושגי ליבה
連合学習におけるプライバシー保護の脆弱性を突く、大規模言語モデルに対する初の正確な勾配逆転攻撃「DAGER」とその有効性について。
本論文は、大規模言語モデル(LLM)に対する新たな勾配逆転攻撃手法であるDAGER(Discreteness-Based Attack on Gradients for Exact Recovery)を提案しています。
はじめに
LLMは目覚ましい発展を遂げていますが、その学習には膨大なデータが必要です。しかし、これらのデータは機密性の高いものが多く、第三者との共有によるプライバシー侵害が懸念されています。連合学習(FL)は、複数の当事者がプライベートデータを共有することなく、勾配のみを共有することで共同でモデルを学習できるため、この問題の解決策として期待されています。しかし、最近の研究では、共有された勾配からプライベートデータが復元される可能性が示唆されており、FLのプライバシー保証に関する懸念が生じています。
勾配逆転攻撃
勾配逆転攻撃は、共有された勾配からプライベートデータを復元する攻撃手法です。従来の勾配逆転攻撃は画像データを対象としたものがほとんどでしたが、近年、テキストデータに対しても有効な攻撃手法が登場してきました。しかし、これらの手法は最適化ベースであるため、テキストデータの離散性により最適化が困難となり、小規模なバッチサイズと短いシーケンスの近似的な復元に限定されていました。
DAGER: 大規模バッチと長いシーケンスの正確な復元
本論文では、これらの制限を克服するために、(Transformerベースの) LLMに対する初の正確な勾配逆転攻撃であるDAGERを提案しています。DAGERは、離散的な入力と勾配の低ランク構造を組み合わせることで、探索ベースの攻撃による正確な復元を可能にしています。具体的には、Transformerの自己注意層の勾配が、(1) 通常は低ランクであり、(2) 入力埋め込みの線形結合であることを利用しています。これにより、与えられた入力埋め込みが勾配の範囲内にあり、したがって入力シーケンスの一部であったかどうかを効率的に確認することができます。
DAGERの動作原理
DAGERは、まず最初の自己注意層の勾配の低ランク性を活用して、各位置におけるクライアントトークンの集合を復元します。次に、2番目の自己注意層の勾配を用いて、復元されたトークン集合に基づいてクライアントバッチのシーケンスを復元します。Decoderアーキテクチャの場合、DAGERは因果的注意マスクを利用して効率的な貪欲探索による復元を行います。一方、Encoderアーキテクチャの場合、DAGERは網羅的な探索を効率化するためにいくつかのヒューリスティックを使用します。
評価
本論文では、EncoderベースとDecoderベースの両方のアーキテクチャ(GPT-2、LLaMa-2、BERTなど)に対して、最大128のバッチサイズでDAGERを評価しています。その結果、DAGERは、従来の攻撃手法と比較して、速度(同じバッチサイズで20倍)、スケーラビリティ(10倍のバッチサイズ)、復元品質(ROUGE-1/2 > 0.99)の点で優れていることが示されました。
結論
本論文は、LLMに対する正確な勾配逆転攻撃であるDAGERを提案し、その有効性を示しました。DAGERは、従来の攻撃手法よりも大規模なバッチサイズと長いシーケンスに対して有効であり、連合学習におけるプライバシー保護の脆弱性を浮き彫りにしました。
סטטיסטיקה
DAGERは、同じバッチサイズで従来の攻撃手法よりも20倍高速です。
DAGERは、従来の攻撃手法よりも10倍大きなバッチサイズを処理できます。
DAGERは、ROUGE-1/2スコアで0.99以上の復元品質を達成しています。
DAGERは、GPT-2、LLaMa-2、BERTなどのLLMに対して有効です。
DAGERは、最大128のバッチサイズで評価されています。