Die Studie präsentiert einen neuartigen Ansatz zur Erstellung von kontrafaktischen Erklärungen für die Erkennung von Gesichtsfälschungen. Durch adversarielle Optimierung der latenten Darstellungen von Fälschungsbildern werden kontrafaktische Versionen generiert, die weniger Artefakte aufweisen.
Die Effektivität dieser Erklärungen wird aus zwei Perspektiven verifiziert:
Visualisierung der kontrafaktischen Spuren: Die verbesserten Fälschungsbilder machen subtile Artefakte für den Menschen leichter erkennbar, indem sie mit den Originalbildern und verschiedenen Visualisierungsmethoden kontrastiert werden.
Übertragbare adversarielle Angriffe: Die durch Angriffe auf ein Erkennungsmodell generierten Fälschungsbilder können auch andere Erkennungsmodelle täuschen, was auf die Allgemeingültigkeit der entfernten Artefakte hinweist.
Im Vergleich zu früheren adversariellen Angriffen, die Rauschen auf Bildebene hinzufügen, optimiert der vorgeschlagene Ansatz die adversariellen Störungen im latenten Raum. Dadurch werden die Artefakte in den synthetisierten Ergebnissen interpretierbarer. Außerdem kann dieser "Synthese-durch-Analyse"-Ansatz die Suche nach kontrafaktischen Erklärungen auf der natürlichen Gesichtsmanifold erzwingen, was zu allgemeineren kontrafaktischen Spuren und einer verbesserten Übertragbarkeit der adversariellen Angriffe führt.
Umfangreiche Experimente zeigen, dass die vorgeschlagene Methode eine Angriffserfolgquote von über 90% und eine überlegene Übertragbarkeit über verschiedene Erkennungsmodelle für Gesichtsfälschungen hinweg erreicht.
เป็นภาษาอื่น
จากเนื้อหาต้นฉบับ
arxiv.org
ข้อมูลเชิงลึกที่สำคัญจาก
by Yang Li,Song... ที่ arxiv.org 04-15-2024
https://arxiv.org/pdf/2404.08341.pdfสอบถามเพิ่มเติม