Das Modell RoNet ermöglicht die kontinuierliche Übersetzung von Bildern zwischen verschiedenen Domänen, indem es die Stilrepräsentation in einer Rotationsebene einbettet und so eine nahtlose Überführung des Stils von einer Domäne in eine andere erreicht.
Unser Modell StegoGAN nutzt Steganographie, um die Erzeugung von Artefakten in nicht-bijektiven Bildübersetzungsaufgaben zu verhindern und die semantische Konsistenz der übersetzten Bilder zu verbessern.
Unser Verfahren ermöglicht eine effiziente Ein-Schritt-Bildübersetzung, indem es ein vortrainiertes Text-zu-Bild-Modell an neue Aufgaben und Domänen anpasst. Dabei erreichen wir vergleichbare Ergebnisse wie bestehende mehrstufige Diffusionsmodelle, benötigen aber nur einen einzigen Inferenzschritt.
Dieser Artikel stellt einen innovativen Ansatz zur Durchführung von Modellextraktion-Angriffen (MEA) auf GAN-basierte Bildübersetzungsmodelle vor. Anstatt sich auf die traditionelle Methode zu konzentrieren, die Verteilungslücke zwischen Angriffsdaten und Trainingsdaten des Opfermodells zu schließen, zielen wir darauf ab, die Auswirkungen der Domänenverschiebung direkt abzumildern. Dies wird durch die Einführung einer neuen Regularisierungskomponente und die Verwendung von Sharpness-Aware-Minimierung erreicht.