CoroNetGAN ist ein Ansatz zur Komprimierung von GANs, der auf differenzierbarem Pruning über Hypernetworks basiert. Im Gegensatz zu anderen Methoden, die eine Lehrernetzwerk-Abhängigkeit oder eine nachträgliche Komprimierung aufweisen, erfolgt die Komprimierung in CoroNetGAN während des Trainings selbst, was den Vorteil einer Reduzierung der Gesamtzeit bietet.
Der Kernaspekt von CoroNetGAN ist, dass das Hypernetwork die Gewichte des Generators dynamisch erzeugt. Der Latenzvektor, der als Eingabe für das Hypernetwork dient, bestimmt dabei die Pruning-Rate für die verschiedenen Schichten des Netzwerks. Durch Sparsifizierung des Latenzvektor mittels Proximal-Gradient wird eine Komprimierung des Generators erreicht.
Die Experimente auf verschiedenen konditionalen GAN-Architekturen (Pix2Pix und CycleGAN) auf mehreren Benchmark-Datensätzen zeigen, dass CoroNetGAN die Leistung der Baselines übertrifft. Insbesondere auf den Datensätzen Zebra → Pferd und Sommer → Winter erzielt CoroNetGAN die besten FID-Werte von 32,3 bzw. 72,3 und generiert hochwertige Bilder über alle Datensätze hinweg. Darüber hinaus übertrifft unser Ansatz auch die state-of-the-art-Methoden in Bezug auf die Inferenzzeit auf verschiedenen Smartphone-Chips, was ihn zu einer praktikablen Lösung für den Einsatz auf Edge-Geräten macht.
To Another Language
from source content
arxiv.org
Key Insights Distilled From
by Aman Kumar,K... at arxiv.org 03-14-2024
https://arxiv.org/pdf/2403.08261.pdfDeeper Inquiries