Grunnleggende konsepter
Adversarial Example Soups verbessern die Transferierbarkeit von Angriffen auf Modelle effektiv.
Sammendrag
In diesem Artikel wird die Effektivität von Adversarialen Beispielsuppen zur Verbesserung der Transferierbarkeit von Angriffen auf Modelle untersucht. Es wird gezeigt, dass das Durchschnittsbild mehrerer Batches von Adversarialen Beispielen unter verschiedenen Hyperparameterkonfigurationen die Transferierbarkeit effektiv verbessern kann. Die Studie umfasst Experimente zu Gradientenstabilisierungsangriffen, Eingangstransformationsangriffen und Merkmalstörungsangriffen.
Struktur:
Einleitung zu Deep Neural Networks und Adversarialen Beispielen
Transferierbarkeit von Adversarialen Beispielen und bisherige Methoden
Vorschlag der Adversarialen Beispielsuppen und deren Effektivität
Experimente zu Gradientenstabilisierungsangriffen, Eingangstransformationsangriffen und Merkmalstörungsangriffen
Ablation Study zur Anzahl der Proben und weiteren Typen von Adversarialen Beispielsuppen
Schlussfolgerungen
Statistikk
Die Erfolgsraten der Angriffe auf Inc-v3adv, Inc-v3ens3, Inc-v3ens4 und InRes-v2ens liegen zwischen 27,0% und 75,5%.
Die Erfolgsraten der Angriffe auf Inc-v4, Inc-v3ens3, Inc-v3ens4 und InRes-v2ens liegen zwischen 19,8% und 71,2%.
Die Erfolgsraten der Angriffe auf Inc-v3adv, Inc-v3ens3, Inc-v3ens4 und InRes-v2ens liegen zwischen 14,7% und 56,8%.
Sitater
"Adversarial Example Soups verbessern die Angriffserfolgsraten auf DIM-Opfermodelle signifikant."