Concetti Chiave
Durch die Einführung von Depth Separable Convolution (DSC) wird die Anzahl der Parameter des Projected GAN reduziert, die Trainingsgeschwindigkeit beschleunigt und der Speicherverbrauch gesenkt, ohne dass die Bildqualität (FID) wesentlich beeinträchtigt wird.
Sintesi
Der Artikel stellt ein verbessertes GAN-Modell namens "Faster Projected GAN" vor, das auf dem Projected GAN-Modell basiert. Der Fokus liegt auf der Verbesserung des Generators des Projected GAN.
Durch den Einsatz von Depth Separable Convolution (DSC) wird die Anzahl der Parameter reduziert, die Trainingsgeschwindigkeit erhöht und der Speicherverbrauch gesenkt, ohne dass die FID-Verluste zu groß sind.
Die Experimente zeigen, dass auf Datensätzen wie ffhq-1k, Art-Painting, Landschaft und anderen Datensätzen mit wenigen Beispielen eine Steigerung der Trainingsgeschwindigkeit um 20% und eine Reduzierung des Speicherverbrauchs um 15% erreicht werden können. Gleichzeitig bleibt der FID-Verlust gering oder entfällt ganz, und die Modellgröße wird besser kontrolliert.
Insbesondere bei der Generierung von Bildern kleiner Stichproben spezieller Szenen, wie z.B. Erdbebenszenen mit wenigen öffentlichen Datensätzen, konnte eine deutliche Verbesserung der Trainingsgeschwindigkeit erzielt werden.
Statistiche
Auf dem ffhq-1k Datensatz mit 2562 Auflösung wurde eine Beschleunigung der Trainingszeit um 18,7% erreicht, bei einem FID-Verlust von 2,05%.
Auf dem Landschaftsdatensatz war der FID-Wert leicht schlechter, mit einem Verlust von 0,26%, während sich die Trainingszeit um 19,24% erhöhte.
Auf dem Art-Painting-Datensatz stieg die Geschwindigkeit um 26,16% bei einem FID-Verlust von 1,72%.
Auf dem Pokemon-Datensatz betrug der FID-Verlust 11,01%, die Geschwindigkeit stieg um 23,6%.
Auf dem selbst erstellten Erdbebenszenendatensatz mit 5122 Auflösung wurden sowohl FID als auch Geschwindigkeit deutlich verbessert.
Citazioni
"Durch die Einführung von Depth Separable Convolution (DSC) wird die Anzahl der Parameter des Projected GAN reduziert, die Trainingsgeschwindigkeit beschleunigt und der Speicherverbrauch gesenkt, ohne dass die FID-Verluste zu groß sind."
"Die Experimente zeigen, dass auf Datensätzen wie ffhq-1k, Art-Painting, Landschaft und anderen Datensätzen mit wenigen Beispielen eine Steigerung der Trainingsgeschwindigkeit um 20% und eine Reduzierung des Speicherverbrauchs um 15% erreicht werden können."
"Insbesondere bei der Generierung von Bildern kleiner Stichproben spezieller Szenen, wie z.B. Erdbebenszenen mit wenigen öffentlichen Datensätzen, konnte eine deutliche Verbesserung der Trainingsgeschwindigkeit erzielt werden."