本文提出了一種針對深度學習模型的新型攻擊策略:延遲後門功能激活 (DBFA)。與傳統後門攻擊不同,DBFA攻擊在模型部署初期不會觸發惡意行為,而是在模型經過後續更新(例如使用良性數據進行微調)後才會被激活,從而繞過現有的檢測和防禦機制。