Der Artikel untersucht den Zusammenhang zwischen Vanilla GANs und Wasserstein GANs. Vanilla GANs basieren auf der Jensen-Shannon-Divergenz, während Wasserstein GANs die Wasserstein-Distanz verwenden.
Zunächst wird gezeigt, dass die Vanilla GAN-Distanz mit der Wasserstein-Distanz kompatibel ist, wenn man eine Lipschitz-Bedingung für die Diskriminator-Klasse einführt. Darauf aufbauend wird ein Orakel-Ungleichung für Vanilla GANs in Bezug auf die Wasserstein-Distanz hergeleitet. Dabei zeigt sich, dass Vanilla GANs die Dimensionalitätsverfluchung vermeiden können, indem sie den Latenzraum niedriger Dimension ausnutzen.
Anschließend wird der Fall betrachtet, in dem sowohl Generator als auch Diskriminator durch neuronale Netzwerke parametrisiert sind. Hier wird die Lipschitz-Bedingung durch eine schwächere Hölder-Bedingung ersetzt. Mithilfe eines neuen quantitativen Approximationsresultats für Lipschitz-Funktionen durch ReLU-Netzwerke mit beschränkter Hölder-Norm werden Konvergenzraten für Vanilla GANs hergeleitet.
Abschließend wird gezeigt, dass ähnliche Ergebnisse auch für Wasserstein-GANs gelten, bei denen die Diskriminator-Klasse durch Hölder-stetige ReLU-Netzwerke parametrisiert ist.
다른 언어로
소스 콘텐츠 기반
arxiv.org
더 깊은 질문