toplogo
سجل دخولك

Effiziente Ein-Schritt-Bildübersetzung mit Text-zu-Bild-Modellen


المفاهيم الأساسية
Unser Verfahren ermöglicht eine effiziente Ein-Schritt-Bildübersetzung, indem es ein vortrainiertes Text-zu-Bild-Modell an neue Aufgaben und Domänen anpasst. Dabei erreichen wir vergleichbare Ergebnisse wie bestehende mehrstufige Diffusionsmodelle, benötigen aber nur einen einzigen Inferenzschritt.
الملخص

In dieser Arbeit stellen wir eine allgemeine Methode vor, um ein einschrittiges Diffusionsmodell, wie SD-Turbo [54], durch adversarisches Lernen an neue Aufgaben und Domänen anzupassen. Damit können wir das interne Wissen von vortrainierten Diffusionsmodellen nutzen und gleichzeitig eine effiziente Inferenz (z.B. 0,3 Sekunden für ein 512x512-Bild) erreichen.

Unser einschrittiges Bildübersetzungsmodell, genannt CycleGAN-Turbo und pix2pix-Turbo, kann realistische Ausgaben für ungekoppelte (oben) und gekoppelte Einstellungen (unten) in verschiedenen Aufgaben synthetisieren.

Wir konzentrieren uns hauptsächlich auf die schwierigeren ungekoppelten Übersetzungsaufgaben, wie die Umwandlung von Tag zu Nacht und umgekehrt sowie das Hinzufügen/Entfernen von Wettereffekten zu/von Bildern. Wir zeigen, dass unser Modell CycleGAN-Turbo sowohl in Bezug auf die Verteilungsanpassung als auch auf die Erhaltung der Eingabestruktur deutlich besser abschneidet als bestehende GAN- und Diffusionsbasierte Methoden, bei gleichzeitig größerer Effizienz als diffusionsbasierte Methoden.

Darüber hinaus demonstrieren wir die Vielseitigkeit unserer Architektur, indem wir Experimente für gekoppelte Einstellungen wie Edge2Image oder Sketch2Photo durchführen. Unser Modell namens pix2pix-Turbo erzielt visuell vergleichbare Ergebnisse mit aktuellen bedingten Diffusionsmodellen, reduziert aber die Anzahl der Inferenzschritte auf 1.

Insgesamt legt unsere Arbeit nahe, dass einschrittige vorgelernte Text-zu-Bild-Modelle als starke und vielseitige Rückgratmodelle für viele nachgelagerte Bildsyntheseaufgaben dienen können.

edit_icon

تخصيص الملخص

edit_icon

إعادة الكتابة بالذكاء الاصطناعي

edit_icon

إنشاء الاستشهادات

translate_icon

ترجمة المصدر

visual_icon

إنشاء خريطة ذهنية

visit_icon

زيارة المصدر

الإحصائيات
Unsere Methode benötigt nur 330 MB trainierbare Parameter für die ungekoppelten Modelle auf den Fahrdatensätzen, einschließlich der LoRA-Gewichte, der Zero-Conv-Schicht und der ersten Convolution-Schicht des U-Net.
اقتباسات
"Unser Verfahren ermöglicht eine effiziente Ein-Schritt-Bildübersetzung, indem es ein vortrainiertes Text-zu-Bild-Modell an neue Aufgaben und Domänen anpasst." "Unser einschrittiges Bildübersetzungsmodell, genannt CycleGAN-Turbo und pix2pix-Turbo, kann realistische Ausgaben für ungekoppelte und gekoppelte Einstellungen in verschiedenen Aufgaben synthetisieren." "Insgesamt legt unsere Arbeit nahe, dass einschrittige vorgelernte Text-zu-Bild-Modelle als starke und vielseitige Rückgratmodelle für viele nachgelagerte Bildsyntheseaufgaben dienen können."

الرؤى الأساسية المستخلصة من

by Gaurav Parma... في arxiv.org 03-19-2024

https://arxiv.org/pdf/2403.12036.pdf
One-Step Image Translation with Text-to-Image Models

استفسارات أعمق

Wie könnte man die Führungskontrolle in unserem Modell ermöglichen, um die Stärke der Führung zu spezifizieren?

Um die Führungskontrolle in unserem Modell zu ermöglichen und die Stärke der Führung zu spezifizieren, könnte man das Konzept des "Guided Distillation" in Betracht ziehen. Durch die Verwendung von Guided Distillation kann die Kontrolle über die Führung gesteigert werden, indem die Gewichtung und Einflussnahme der Führung auf den Generierungsprozess angepasst werden. Dies ermöglicht es, die Stärke der Führung zu variieren und anzupassen, um die gewünschten Ergebnisse zu erzielen. Durch die Implementierung von Guided Distillation kann die Kontrolle über die Führung in unserem Modell verfeinert und optimiert werden.

Wie könnte man die Methode erweitern, um negative Eingabeaufforderungen zu unterstützen, um Artefakte weiter zu reduzieren?

Um negative Eingabeaufforderungen in unserer Methode zu unterstützen und Artefakte weiter zu reduzieren, könnte man eine Technik namens "One-Sided Method" in Betracht ziehen. Die One-Sided Method ermöglicht es, Artefakte zu reduzieren, indem sie den Generierungsprozess einseitig beeinflusst, um unerwünschte Ergebnisse zu minimieren. Durch die Integration von One-Sided Method in unsere Methode können negative Eingabeaufforderungen effektiv genutzt werden, um Artefakte zu reduzieren und die Qualität der generierten Bilder zu verbessern.

Wie könnte man die Methode skalieren, um hochauflösendere Bildübersetzungen zu ermöglichen, ohne den Speicherverbrauch zu erhöhen?

Um die Methode zu skalieren und hochauflösendere Bildübersetzungen zu ermöglichen, ohne den Speicherverbrauch zu erhöhen, könnte man die Technik des "Progressive Growing" in Betracht ziehen. Progressive Growing ermöglicht es, die Bildauflösung schrittweise zu erhöhen, was es ermöglicht, hochauflösende Bilder zu generieren, ohne den Speicherverbrauch signifikant zu erhöhen. Durch die schrittweise Erhöhung der Bildauflösung kann die Methode effizient skaliert werden, um hochauflösende Bildübersetzungen durchzuführen, während gleichzeitig der Speicherverbrauch optimiert wird.
0
star