Основні поняття
本文提出了一種名為 CrossDF 的深度信息分解(DID)框架,用於解決跨數據集深度偽造檢測的性能下降問題,通過將面部特徵分解為與偽造相關和無關的信息,並利用去相關學習模塊提高模型對不同偽造技術的泛化能力,最終提升了跨數據集深度偽造檢測的性能。
Анотація
論文概述
本篇論文發表於 IEEE TRANSACTIONS ON MULTIMEDIA 期刊,題為“CrossDF: Improving Cross-Domain Deepfake Detection with Deep Information Decomposition”。論文針對跨數據集深度偽造檢測任務中存在的性能下降問題,提出了一種基於深度信息分解的解決方案。
研究背景
深度偽造技術的快速發展對安全和社會信任構成了嚴重威脅。現有的深度偽造檢測方法在處理使用相同技術生成的數據集時表現良好,但在面對跨數據集場景時,由於測試數據集包含未見過的偽造技術,性能會急劇下降。
研究方法
為了解決這一問題,作者提出了一種深度信息分解(DID)框架,用於增強跨數據集深度偽造檢測(CrossDF)的性能。與大多數現有方法不同,DID 框架優先考慮高層語義特徵,而不是特定的視覺偽影。具體來說,它將面部特徵自適應地分解為與偽造相關和無關的信息,僅使用與偽造相關的內在信息進行真假判別。此外,它還通過去相關學習模塊優化這兩種信息,使其相互獨立,從而增強模型對各種無關信息變化和未見偽造方法的魯棒性和泛化能力。
實驗結果
論文通過大量實驗評估和與現有最先進檢測方法的比較,驗證了 DID 框架在跨數據集深度偽造檢測方面的有效性和優越性。實驗結果表明,DID 框架在跨數據集場景下顯著優於現有方法,取得了新的最先進性能。
主要貢獻
-
提出了一種新的端到端深度信息分解(DID)框架,將深度偽造人臉圖像信息分解為與偽造相關和無關的信息。通過將跨數據集深度偽造檢測制定為域泛化問題,增強了深度偽造檢測器的泛化能力。
-
引入了一個去相關學習模塊,以促進分解後的組件的獨立性,而無需了解(假設)它們的分佈函數或關係,這可以從本質上提高深度偽造檢測的魯棒性。
-
進行了大量實驗,證明了該框架的優越性,在具有挑戰性的跨數據集深度偽造檢測任務上取得了最先進的性能。
Статистика
使用 FaceForensics++ (FF++) 數據集進行訓練時,現有方法在相同數據集上測試的 AUC 分數為 0.98,但在 Celeb-DF 數據集上測試時,AUC 分數急劇下降至 0.65。
DID 方法在 FF++ 數據集上訓練並在 Celeb-DF v2 數據集上測試時,AUC 分數達到 0.779,優於其他方法。
在 DFFD 數據集上訓練並在 Celeb-DF 數據集上測試時,DID 方法在 ResNet50 骨幹網絡上的 AUC 分數提高了 17.26%,在 EfficientNet-v2-L 骨幹網絡上的 AUC 分數提高了 6.56%。
使用 AUC loss 作為唯一的深度偽造分類損失函數時,AUC 分數為 0.380;僅使用 BCE loss 時,AUC 分數為 0.763;而同時使用 AUC loss 和 BCE loss 並賦予相等權重時,AUC 分數達到最佳值 0.779。
去除 DID 框架中的域注意力模塊 Adom 後,AUC 分數下降了 2.05%,EER 增加了 5.59%。
去除 DID 框架中的去相關學習模塊 T 後,AUC 分數下降了 2.57%,EER 增加了 6.64%。
域分類模塊對所有偽造方法的平均識別準確率為 0.91,其中對 FaceSwap 方法的識別準確率最高,達到 0.99。
Цитати
"With advances in deep forgery methods, the differences between authentic and deepfake images are becoming more and more subtle, even subtler than those between deepfake images synthesized from the same authentic image with different forgery techniques."
"Unlike existing methods, we focus on high-level semantic features rather than low-level deepfake visual traces."
"Extensive experiments demonstrate the effectiveness and superiority of our framework. We achieve new state-of-the-art performance on cross-dataset deepfake detection."