Core Concepts
AFSLは、実際と偽物のインスタンスを区別するために、3つの基本的なディープフィーチャー学習パラダイムを統合したアプローチです。
Abstract
深層フェイク技術がデジタルコンテンツの信頼性に関する懸念を引き起こし、効果的な検出方法の開発が必要とされている。
敵対的攻撃によって深層フェイクビデオが操作され、検出モデルを誤った出力を生成させる可能性がある。
AFSLは、実験で他の標準的な敵対トレーニングベースの防御方法を大幅に上回り、深層フェイク検出器を敵対攻撃から保護する効果を示している。
1. 導入
深層フェイク技術は社会を魅了し、警戒させており、信頼性のある深層フェイク検出方法の開発者が勉強してきた。
敵対攻撃は小さくて感知できない摂動で深層フェイクビデオを操作し、検出モデルを誤った結果に導く可能性がある。
2. 関連研究
深層フェイク作成と検出に関するGANsやその派生型の開発が進み、画像生成や操作で驚異的な成果をもたらしている。
3. 敵対特徴類似性学習
AFSL目的関数は3つの基本パラダイムで類似性最適化し、リアルと偽物サンプルおよびそれらの敵対カウンターパート間で最大限の類似性を目指す。
Stats
Adversarial deepfakes [18]は事前ソフトマックスレイヤーを利用して敵対的偽物作成し、正確な分類から逃れられる。
TRADES [46]は交差エントロピー損失と清浄および敵対例間距離損失を利用した代替ロス関数。
Deep image prior (DIP) [10]はGANネットワークを使用して入力から摂動除去し、モデルを敵対攻撃から保護する。
Quotes
"Deepfake technology has raised concerns about the authenticity of digital content."
"To tackle this critical issue, we introduce Adversarial Feature Similarity Learning (AFSL)."
"With extensive experiments on popular deepfake datasets, the proposed method outperforms other standard adversarial training-based defense methods significantly."