Główne pojęcia
大規模言語モデル(LLM)に対するメンバーシップ推論攻撃(MIA)は、従来の短いテキスト単位ではなく、文書や文書コレクションといった大きなテキスト単位に対して適用した場合に有効である。
Streszczenie
大規模言語モデルに対するメンバーシップ推論攻撃:攻撃が成功する条件と方法
本論文は、大規模言語モデル(LLM)に対するメンバーシップ推論攻撃(MIA)の有効性について、従来の研究とは異なる視点から論じています。従来の研究では、LLMに対するMIAは効果がないとされてきましたが、本論文では、文書や文書コレクションといった大きなテキスト単位に対してMIAを適用した場合、効果的であることを示しています。
LLMは、著作権で保護されたデータを含む膨大なデータセットを用いて訓練されています。そのため、データの所有者は、自分たちのデータが許可なくLLMの訓練に使用されているのではないかと懸念を抱いています。MIAは、特定のデータサンプルがモデルの訓練に使用されたかどうかを判断しようとする攻撃手法であり、LLMの訓練データの不正利用に関する問題に対処するために注目されています。
従来のLLMに対するMIAの研究では、短いトークンシーケンス(通常128~256トークン)を対象としており、ランダムな推測をわずかに上回る程度の精度しか得られていませんでした。これは、短いトークンシーケンスでは、メンバーと非メンバーの重複が大きいため、MIAの問題が明確に定義されないためです。