拡散モデルは、その優れた画像生成能力から、産業界でGANsなどの生成モデルに取って代わる存在になりつつありますが、その複雑なアーキテクチャは、攻撃者に多くの攻撃の機会を提供します。本稿では、拡散モデルの学習データに特定のサンプルが含まれているかどうかを推測する、メンバーシップ推論攻撃(MIA)に焦点を当て、勾配情報を攻撃特徴量として活用することで、従来の損失ベースの攻撃よりも効果的かつ効率的に攻撃を実行できることを示します。
ラベル付けされたデータが少ない現実的なシナリオにおいても、教師なし対照学習を用いることで、従来の攻撃手法よりも効果的に機械学習モデルに対するメンバーシップ推論攻撃が可能になる。
大規模ビジョン言語モデル(VLLM)は、画像キャプションや質問応答などのマルチモーダルタスクにおいて優れた能力を発揮する一方で、トレーニングデータに機密情報が含まれている可能性があり、データセキュリティ上の懸念が生じている。本稿では、VLLMにおけるトレーニングデータの検出を目的とした、初のメンバーシップ推論攻撃(MIA)ベンチマークを紹介する。
大規模言語モデル(LLM)に対するメンバーシップ推論攻撃(MIA)は、従来の短いテキスト単位ではなく、文書や文書コレクションといった大きなテキスト単位に対して適用した場合に有効である。
OSLOは、転移ベースの敵対的攻撃を用いることで、ターゲットモデルに対して1回のクエリのみで高精度なメンバーシップ推論攻撃を可能にする。
テキスト-画像拡散モデルは、従来のメンバーシップ推論攻撃への耐性が高いものの、条件付き分布への過剰適合を利用することで、トレーニングデータのプライバシー漏洩を検出できる。
本稿では、検索拡張生成(RAG)システムにおけるメンバーシップ推論攻撃(MIA)のリスクを検証し、マスクベースの新しい攻撃手法(MBA)を提案する。
音声データを使わずに、テキストデータのみを用いて、CLAPモデルにおいて特定の話者の情報が学習データに含まれていたかどうかを推論する新しい手法USMIDを提案する。
大規模言語モデル(LLM)やビジョン言語モデル(VLM)における著作権侵害の可能性を検出するため、学習データの利用有無を推論する新しいデータセットレベルのメンバーシップ推論手法を提案する。
大規模言語モデルを用いたコードモデルは、トレーニングデータのプライバシー漏洩に対して脆弱であり、攻撃者は高精度で特定のコードがトレーニングデータに含まれていたかを推測できる。