本研究は、視覚言語事前学習(VLP)モデルに対する新しい攻撃手法FMMSを提案する。VLPモデルは画像と言語の理解を統合的に行うことで優れた性能を発揮するが、近年の研究により、これらのモデルが敵対的攻撃に対して脆弱であることが明らかになっている。
従来の転移ベースの攻撃手法は、代理モデルで生成した敵対的サンプルをターゲットモデルに転移させるが、モーダル間の特徴表現の違いにより転移性が限定的であった。
そこで本研究では、ターゲットモデルのフィードバックを活用し、モーダル間の相互作用を通じて敵対的サンプルを探索する手法FMMSを提案する。具体的には、モーダル相互損失(MML)を導入し、マッチした画像-テキストペアの距離を離し、不マッチペアの距離を縮めることで、多様な更新方向を探索する。さらに、ターゲットモデルのフィードバックを用いて敵対的サンプルを反復的に最適化することで、より効果的な攻撃を実現する。
提案手法FMMSは、Flickr30KとMSCOCOデータセットにおける画像-テキスト検索タスクで評価を行い、従来手法を大幅に上回る攻撃性能を示した。特に、ターゲットモデルと同種のモデルを代理モデルとして使用した場合に顕著な性能向上が見られた。これは、ターゲットモデルのフィードバックを活用することで、モーダル間の特徴表現の違いを効果的に克服できたことを示している。
Egy másik nyelvre
a forrásanyagból
arxiv.org
Mélyebb kérdések