Der Artikel stellt einen neuen Ansatz namens DGL-GAN (Discriminator Guided Learning GAN) vor, um große Generative Adversarielle Netze (GANs) wie StyleGAN2 und BigGAN effizient zu komprimieren.
Der Hauptbeitrag ist, dass DGL-GAN nur den vortrainierten Lehrer-Diskriminator nutzt, um den Schüler-Generator zu optimieren, anstatt den Lehrer-Generator zu verwenden. Dies ist motiviert durch die Beobachtung, dass der Lehrer-Diskriminator implizit Informationen über die Verteilung der echten und synthetischen Bilder enthält, die für die Komprimierung des Schüler-Generators nützlich sein können.
Um die Instabilität des Minimax-Optimierungsproblems von GANs zu mildern, führt DGL-GAN auch eine zweistufige Trainingsstrategie ein. In der ersten Stufe wird der schmale Generator von Grund auf trainiert, bevor er in der zweiten Stufe mit dem Lehrer-Diskriminator feinabgestimmt wird.
Die Experimente zeigen, dass DGL-GAN den aktuellen Stand der Technik bei der Komprimierung von StyleGAN2 und BigGAN übertrifft. Darüber hinaus kann DGL-GAN auch die Leistung des ursprünglichen, nicht komprimierten StyleGAN2 verbessern und erreicht damit einen neuen Spitzenwert auf dem FFHQ-Datensatz.
翻译成其他语言
从原文生成
arxiv.org
更深入的查询