核心概念
DGL-GAN ist ein neuartiger und einfacher Ansatz zur Komprimierung von großen Generativen Adversariellen Netzen, der das Wissen des Lehrer-Diskriminators über die Verteilung der echten und synthetischen Bilder nutzt, um den Schüler-Generator zu optimieren.
摘要
Der Artikel stellt einen neuen Ansatz namens DGL-GAN (Discriminator Guided Learning GAN) vor, um große Generative Adversarielle Netze (GANs) wie StyleGAN2 und BigGAN effizient zu komprimieren.
Der Hauptbeitrag ist, dass DGL-GAN nur den vortrainierten Lehrer-Diskriminator nutzt, um den Schüler-Generator zu optimieren, anstatt den Lehrer-Generator zu verwenden. Dies ist motiviert durch die Beobachtung, dass der Lehrer-Diskriminator implizit Informationen über die Verteilung der echten und synthetischen Bilder enthält, die für die Komprimierung des Schüler-Generators nützlich sein können.
Um die Instabilität des Minimax-Optimierungsproblems von GANs zu mildern, führt DGL-GAN auch eine zweistufige Trainingsstrategie ein. In der ersten Stufe wird der schmale Generator von Grund auf trainiert, bevor er in der zweiten Stufe mit dem Lehrer-Diskriminator feinabgestimmt wird.
Die Experimente zeigen, dass DGL-GAN den aktuellen Stand der Technik bei der Komprimierung von StyleGAN2 und BigGAN übertrifft. Darüber hinaus kann DGL-GAN auch die Leistung des ursprünglichen, nicht komprimierten StyleGAN2 verbessern und erreicht damit einen neuen Spitzenwert auf dem FFHQ-Datensatz.
統計資料
Der StyleGAN2-Generator auf FFHQ enthält 30,37 Millionen Parameter.
Der BigGAN-Generator auf ImageNet enthält 70,33 Millionen Parameter.
DGL-GAN mit einem Kanalmultiplikator von 1/2 erreicht auf FFHQ einen FID-Wert von 2,97, was vergleichbar mit dem Original-StyleGAN2 ist.
DGL-GAN mit einem Kanalmultiplikator von 1/2 erreicht auf ImageNet einen Inception Score von 93,29, was leicht unter dem Original-BigGAN liegt.
引述
"Motiviert durch das Phänomen, dass der Lehrer-Diskriminator möglicherweise einige nützliche Informationen über die Verteilung der echten Bilder und der Fake-Bilder enthält, übertragen wir lediglich das Wissen vom Lehrer-Diskriminator über die adversarische Interaktion zwischen dem Lehrer-Diskriminator und dem Schüler-Generator."
"DGL-GAN erreicht den aktuellen Stand der Technik bei der Komprimierung sowohl von StyleGAN2 als auch von BigGAN. Darüber hinaus ist DGL-GAN auch effektiv beim Boosten der Leistung des ursprünglichen, nicht komprimierten GANs."