In dieser Arbeit präsentieren wir eine effiziente Methode zur Stichprobenentnahme aus Posteriori-Verteilungen in Bayesschen inversen Problemen. Dazu verwenden wir konditionale Gradientenflüsse der maximalen mittleren Abweichung (MMD) mit negativem Abstandskernel.
Zunächst zeigen wir theoretisch, dass die approximierte gemeinsame Verteilung, die wir durch diese Gradientenflüsse erhalten, die Posteriori-Verteilungen gut approximiert. Dazu beweisen wir Stabilitätsabschätzungen zwischen den Posteriori-Verteilungen und der gelernten gemeinsamen Verteilung.
Anschließend interpretieren wir die Gradientenflüsse als Wasserstein-Gradientenflüsse eines geeigneten funktionals. Dies liefert eine theoretische Rechtfertigung für die empirischen Beobachtungen von Du et al. (2023), die ähnliche Gradientenflüsse ohne Bewegung in einer Komponente betrachtet haben.
Schließlich approximieren wir diese Gradientenflüsse durch konditionale generative neuronale Netze und wenden sie erfolgreich auf verschiedene inverse Probleme wie Bildauflösung, Inpainting und Computertomographie an. Dabei zeigen wir, dass unser Ansatz hochdimensionale und realistische Probleme effizient lösen kann.
To Another Language
from source content
arxiv.org
Principais Insights Extraídos De
by Paul... às arxiv.org 03-22-2024
https://arxiv.org/pdf/2310.03054.pdfPerguntas Mais Profundas