Verbesserung von Adversarialen Angriffen auf das Latent Diffusion Model durch die Einführung von konsistenten Fehlermustern.
Die Existenz von Angriffen auf maschinelles Lernen, die für Menschen unmerklich sind, ist eine natürliche Konsequenz der Dimensionenlücke zwischen den intrinsischen und Umgebungsdimensionen der Daten.
Proposing a new practical setting of hard-label based attack with an optimization process guided by a pre-trained surrogate model significantly improves query efficiency in black-box attacks.