提出一種名為VLOOD的新型後門攻擊方法,能夠在使用出-分佈資料的情況下,有效地攻擊視覺語言模型,同時最小化對原有語義的損害。
本研究提出了TrojVLM,這是第一個針對視覺語言模型(VLM)進行後門攻擊的方法。TrojVLM能夠在不影響原有語義內容的情況下,在VLM的輸出文本中插入預定義的目標文本。