แนวคิดหลัก
本文提出了一種結合視覺和聽覺分析的多模態深度偽造檢測框架,旨在解決單模態方法的局限性,並提高檢測的準確性和穩健性。
บทคัดย่อ
多模態深度偽造檢測框架研究
本研究論文提出了一種創新的多模態框架,用於檢測日益複雜的深度偽造技術。深度偽造技術對數位媒體的完整性構成嚴重威脅,因為它能令人信服地操縱視聽內容,從而帶來錯誤資訊、詐騙以及對個人隱私和安全的嚴重影響。
本研究旨在開發一種能夠有效區分真實媒體和深度偽造媒體的系統,重點關注視覺和聽覺線索的整合,以提高檢測的準確性。
視覺分析:
該框架採用先進的特徵提取技術,從視頻中提取九種不同的面部特徵,包括鼻子和嘴唇的大小、對比度和相關性、眨眼、瞳孔間距、顴骨高度、頭部姿勢和膚色。
這些特徵隨後被輸入到各種機器學習和深度學習模型中,包括決策樹、隨機森林、Bagging、XGBoost 和人工神經網絡 (ANN),以對視頻進行分類。
聽覺分析:
該框架利用梅爾頻譜圖分析從音頻數據中提取特徵,捕捉人類聽覺感知的細微差別。
然後將提取的特徵輸入到各種機器學習和深度學習模型中,包括隨機森林、梯度提升、卷積神經網絡 (CNN) 和 VGG19,以對音頻進行分類。
多模態融合:
為了實現視覺和聽覺分析的結合,研究人員在原始數據集中交換了真實和深度偽造的音頻,以進行測試,並確保樣本的平衡。
如果視頻或音頻組件被識別為深度偽造,則使用所提出的視頻和音頻分類模型(即人工神經網絡和 VGG19)將整個樣本分類為深度偽造。