Core Concepts
Tiefe generative Modelle, die die Mannigfaltigkeitshypothese berücksichtigen, können Verteilungen, die auf unbekannten niedrigdimensionalen Mannigfaltigkeiten unterstützt sind, besser lernen als Modelle, die diese Struktur nicht explizit berücksichtigen.
Abstract
Die Arbeit untersucht tiefe generative Modelle (DGMs) aus der Perspektive der Mannigfaltigkeitshypothese. Diese Hypothese besagt, dass hochdimensionale Daten oft auf einer unbekannten niedrigdimensionalen Untermannigfaltigkeit M des Datenraums X liegen.
Zunächst wird der mathematische Hintergrund zu Mannigfaltigkeiten und relevanten Divergenzmaßen zwischen Verteilungen erläutert. Dann werden gängige DGMs, die die Mannigfaltigkeitsstruktur nicht berücksichtigen (manifold-unaware), analysiert. Es wird gezeigt, dass hochdimensionale likelihood-basierte Modelle unvermeidbar unter numerischer Instabilität leiden, wenn die Daten auf einer Mannigfaltigkeit unterstützt sind.
Anschließend werden DGMs betrachtet, die die Mannigfaltigkeitsstruktur explizit modellieren (manifold-aware). Dazu gehören sowohl populäre Modelle, die zufällig diese Eigenschaft aufweisen, als auch Modelle, die speziell dafür entwickelt wurden. Für eine Klasse von zweistufigen Modellen wird gezeigt, dass sie eine (möglicherweise regularisierte) obere Schranke der Wasserstein-Distanz zur wahren Verteilung minimieren.
Abschließend werden diskrete DGMs kurz diskutiert, bevor ein Ausblick auf zukünftige Forschungsrichtungen gegeben wird.
Stats
Keine relevanten Statistiken oder Zahlen extrahiert.
Quotes
Keine markanten Zitate identifiziert.