Unser Ansatz GD2-NeRF ist ein zweistufiges generatives Detailkompensationsframework für die One-Shot Novel View Synthesis (O-NVS) Aufgabe.
In der ersten Stufe (Coarse-Stage) verwenden wir die One-stage Parallel Pipeline (OPP), um effizient ein GAN-Modell in bestehende OG-NeRF-Pipelines wie PixelNeRF zu injizieren. Dadurch können wir die Unschärfe-Probleme der OG-NeRF-Methoden durch Lernen von in-distribution-Detailpriors aus dem Trainingsdatensatz primär beheben. OPP verwendet eine Dual-Paradigm-Struktur, Confidence Radiance Fields und Dual-Paradigm-Fusion, um eine gute Balance zwischen Schärfe und Treue zu erreichen.
In der zweiten Stufe (Fine-Stage) nutzen wir den Diffusion-based 3D Enhancer (Diff3DE), um zusätzliche lebendige plausible Details unter Beibehaltung der 3D-Konsistenz hinzuzufügen. Diff3DE verwendet die Priors aus vortrainierten Diffusionsmodellen wie ControlNet-Tile, ohne weitere Feinabstimmung. Es wählt benachbarte Schlüsselbilder basierend auf der Kameraposition aus und propagiert die Ausgabetokens unter Verwendung von Inflated Self-Attention und barycentrische Interpolation in den Zielblick.
Umfangreiche Experimente auf synthetischen und realen Datensätzen zeigen, dass unser GD2-NeRF-Ansatz die Details deutlich verbessert, ohne Feinabstimmung während der Inferenz zu erfordern.
In un'altra lingua
dal contenuto originale
arxiv.org
Approfondimenti chiave tratti da
by Xiao Pan,Zon... alle arxiv.org 04-01-2024
https://arxiv.org/pdf/2401.00616.pdfDomande più approfondite