In dieser Arbeit untersuchen wir das Thema der nicht-bijektiven Bildübersetzung, bei der die Klassen der Quell- und Zieldomänen nicht in einer Eins-zu-Eins-Beziehung stehen. Bestehende Bildübersetzungsmodelle wie GANs neigen dazu, Artefakte oder Halluzinationen von Klassen zu erzeugen, die in der Quelldomäne nicht vorhanden sind.
Um dieses Problem anzugehen, schlagen wir StegoGAN vor, ein neuartiges Modell, das Steganographie nutzt, um die Erzeugung solcher Artefakte zu verhindern. StegoGAN zerlegt die Merkmale in "passende" und "nicht passende" Anteile und verhindert so, dass das Modell nicht-existente Objekte in den übersetzten Bildern erzeugt.
Unsere Experimente auf verschiedenen Datensätzen zeigen, dass StegoGAN die semantische Konsistenz der übersetzten Bilder im Vergleich zu anderen GAN-basierten Modellen deutlich verbessert, ohne zusätzliche Nachbearbeitungsschritte oder Überwachung zu benötigen.
다른 언어로
소스 콘텐츠 기반
arxiv.org
더 깊은 질문