핵심 개념
大規模ビジョン言語モデル(VLLM)は、画像キャプションや質問応答などのマルチモーダルタスクにおいて優れた能力を発揮する一方で、トレーニングデータに機密情報が含まれている可能性があり、データセキュリティ上の懸念が生じている。本稿では、VLLMにおけるトレーニングデータの検出を目的とした、初のメンバーシップ推論攻撃(MIA)ベンチマークを紹介する。
초록
大規模ビジョン言語モデルに対するメンバーシップ推論攻撃:研究論文要約
Zhan Li, Yongtao Wu, Yihang Chen, Francesco Tonin, Elias Abad Rocamora, Volkan Cevher. (2024). Membership Inference Attacks against Large Vision-Language Models. Proceedings of the 38th Conference on Neural Information Processing Systems. arXiv:2411.02902v1 [cs.CV].
本研究は、大規模ビジョン言語モデル(VLLM)におけるトレーニングデータの検出を目的とし、VLLMに対するメンバーシップ推論攻撃(MIA)の有効性と、VLLMにおけるプライバシー漏洩のリスクを評価することを目的とする。