Umfassende und faire Bewertung von Deepfake-Erkennungsansätzen zur Förderung der Forschung
Dieser Artikel stellt einen umfassenden und konsistenten Benchmark zur ganzheitlichen und fairen Bewertung bestehender Deepfake-Erkennungsansätze vor. Durch großangelegte Experimente mit mehreren fairen und praktischen Bewertungsmetriken wird gezeigt, dass Datenkonsistenz zu unfairen Vergleichen zwischen gängigen Ansätzen führen kann. Ein herausfordernder ID-Testdatensatz mit manipulierten Samples, die sowohl für Menschen als auch für Erkennungsalgorithmen nicht unterscheidbar sind, wird für eine bessere Bewertung und ein tieferes Verständnis des Stands der Technik bei Deepfake-Erkennungsmethoden gesammelt. Die Bewertungsergebnisse zeigen, dass die bestehenden beliebten Deepfake-Erkennungsalgorithmen den Erwartungen für den Einsatz in der Realwelt noch weit hinterherhinken. Die Bewertung aus mehreren Perspektiven zeigt, dass verschiedene Algorithmen ihre eigenen Vorteile haben und kein einziger Ansatz umfassend überlegen ist.