DeSparsify 是一種針對視覺 Transformer 中 Token 稀疏化機制的新型對抗性攻擊,它可以透過產生惡意樣本來耗盡系統資源,同時保持模型的原始分類結果,從而影響模型的可用性。
本文全面概述了傳統和基於大型視覺語言模型 (LVLM) 的對抗性攻擊,強調了它們的聯繫和區別,並為未來的研究提供了可操作的見解。
雖然對抗性區塊在數位環境中能有效干擾目標檢測網路,但在真實世界中,其效力會受到區塊大小、位置、旋轉、亮度和色調等環境因素的顯著影響。
本文提出了一種名為 GADT 的新型資料增強優化策略,旨在生成更有效且可遷移的對抗性樣本,透過利用可微分資料增強操作和一個新的損失函數,GADT 能夠有效地找到最佳的資料增強參數,從而顯著提高對抗性攻擊的成功率。
本文提出了一種稱為 LoRa-PGD 的新型 PGD 攻擊變體,它利用低秩結構來有效地產生對抗性攻擊,並在保持低記憶體成本的同時,實現了與標準 PGD 攻擊相當的性能。
本文提出了一種名為 GSE 的新型演算法,用於生成群組式稀疏且可解釋的對抗性攻擊,該演算法在產生稀疏對抗性擾動方面表現出色,同時展現出最高的稀疏性和最短的計算時間,並在可解釋性的量化指標和視覺化深度神經網路漏洞方面優於現有方法。