toplogo
Log på

Effiziente Ein-Schritt-Bildübersetzung mit Text-zu-Bild-Modellen


Kernekoncepter
Unser Verfahren ermöglicht eine effiziente Ein-Schritt-Bildübersetzung, indem es ein vortrainiertes Text-zu-Bild-Modell an neue Aufgaben und Domänen anpasst. Dabei erreichen wir vergleichbare Ergebnisse wie bestehende mehrstufige Diffusionsmodelle, benötigen aber nur einen einzigen Inferenzschritt.
Resumé

In dieser Arbeit stellen wir eine allgemeine Methode vor, um ein einschrittiges Diffusionsmodell, wie SD-Turbo [54], durch adversarisches Lernen an neue Aufgaben und Domänen anzupassen. Damit können wir das interne Wissen von vortrainierten Diffusionsmodellen nutzen und gleichzeitig eine effiziente Inferenz (z.B. 0,3 Sekunden für ein 512x512-Bild) erreichen.

Unser einschrittiges Bildübersetzungsmodell, genannt CycleGAN-Turbo und pix2pix-Turbo, kann realistische Ausgaben für ungekoppelte (oben) und gekoppelte Einstellungen (unten) in verschiedenen Aufgaben synthetisieren.

Wir konzentrieren uns hauptsächlich auf die schwierigeren ungekoppelten Übersetzungsaufgaben, wie die Umwandlung von Tag zu Nacht und umgekehrt sowie das Hinzufügen/Entfernen von Wettereffekten zu/von Bildern. Wir zeigen, dass unser Modell CycleGAN-Turbo sowohl in Bezug auf die Verteilungsanpassung als auch auf die Erhaltung der Eingabestruktur deutlich besser abschneidet als bestehende GAN- und Diffusionsbasierte Methoden, bei gleichzeitig größerer Effizienz als diffusionsbasierte Methoden.

Darüber hinaus demonstrieren wir die Vielseitigkeit unserer Architektur, indem wir Experimente für gekoppelte Einstellungen wie Edge2Image oder Sketch2Photo durchführen. Unser Modell namens pix2pix-Turbo erzielt visuell vergleichbare Ergebnisse mit aktuellen bedingten Diffusionsmodellen, reduziert aber die Anzahl der Inferenzschritte auf 1.

Insgesamt legt unsere Arbeit nahe, dass einschrittige vorgelernte Text-zu-Bild-Modelle als starke und vielseitige Rückgratmodelle für viele nachgelagerte Bildsyntheseaufgaben dienen können.

edit_icon

Tilpas resumé

edit_icon

Genskriv med AI

edit_icon

Generer citater

translate_icon

Oversæt kilde

visual_icon

Generer mindmap

visit_icon

Besøg kilde

Statistik
Unsere Methode benötigt nur 330 MB trainierbare Parameter für die ungekoppelten Modelle auf den Fahrdatensätzen, einschließlich der LoRA-Gewichte, der Zero-Conv-Schicht und der ersten Convolution-Schicht des U-Net.
Citater
"Unser Verfahren ermöglicht eine effiziente Ein-Schritt-Bildübersetzung, indem es ein vortrainiertes Text-zu-Bild-Modell an neue Aufgaben und Domänen anpasst." "Unser einschrittiges Bildübersetzungsmodell, genannt CycleGAN-Turbo und pix2pix-Turbo, kann realistische Ausgaben für ungekoppelte und gekoppelte Einstellungen in verschiedenen Aufgaben synthetisieren." "Insgesamt legt unsere Arbeit nahe, dass einschrittige vorgelernte Text-zu-Bild-Modelle als starke und vielseitige Rückgratmodelle für viele nachgelagerte Bildsyntheseaufgaben dienen können."

Vigtigste indsigter udtrukket fra

by Gaurav Parma... kl. arxiv.org 03-19-2024

https://arxiv.org/pdf/2403.12036.pdf
One-Step Image Translation with Text-to-Image Models

Dybere Forespørgsler

Wie könnte man die Führungskontrolle in unserem Modell ermöglichen, um die Stärke der Führung zu spezifizieren?

Um die Führungskontrolle in unserem Modell zu ermöglichen und die Stärke der Führung zu spezifizieren, könnte man das Konzept des "Guided Distillation" in Betracht ziehen. Durch die Verwendung von Guided Distillation kann die Kontrolle über die Führung gesteigert werden, indem die Gewichtung und Einflussnahme der Führung auf den Generierungsprozess angepasst werden. Dies ermöglicht es, die Stärke der Führung zu variieren und anzupassen, um die gewünschten Ergebnisse zu erzielen. Durch die Implementierung von Guided Distillation kann die Kontrolle über die Führung in unserem Modell verfeinert und optimiert werden.

Wie könnte man die Methode erweitern, um negative Eingabeaufforderungen zu unterstützen, um Artefakte weiter zu reduzieren?

Um negative Eingabeaufforderungen in unserer Methode zu unterstützen und Artefakte weiter zu reduzieren, könnte man eine Technik namens "One-Sided Method" in Betracht ziehen. Die One-Sided Method ermöglicht es, Artefakte zu reduzieren, indem sie den Generierungsprozess einseitig beeinflusst, um unerwünschte Ergebnisse zu minimieren. Durch die Integration von One-Sided Method in unsere Methode können negative Eingabeaufforderungen effektiv genutzt werden, um Artefakte zu reduzieren und die Qualität der generierten Bilder zu verbessern.

Wie könnte man die Methode skalieren, um hochauflösendere Bildübersetzungen zu ermöglichen, ohne den Speicherverbrauch zu erhöhen?

Um die Methode zu skalieren und hochauflösendere Bildübersetzungen zu ermöglichen, ohne den Speicherverbrauch zu erhöhen, könnte man die Technik des "Progressive Growing" in Betracht ziehen. Progressive Growing ermöglicht es, die Bildauflösung schrittweise zu erhöhen, was es ermöglicht, hochauflösende Bilder zu generieren, ohne den Speicherverbrauch signifikant zu erhöhen. Durch die schrittweise Erhöhung der Bildauflösung kann die Methode effizient skaliert werden, um hochauflösende Bildübersetzungen durchzuführen, während gleichzeitig der Speicherverbrauch optimiert wird.
0
star