Unser Ansatz GD2-NeRF ist ein zweistufiges generatives Detailkompensationsframework für die One-Shot Novel View Synthesis (O-NVS) Aufgabe.
In der ersten Stufe (Coarse-Stage) verwenden wir die One-stage Parallel Pipeline (OPP), um effizient ein GAN-Modell in bestehende OG-NeRF-Pipelines wie PixelNeRF zu injizieren. Dadurch können wir die Unschärfe-Probleme der OG-NeRF-Methoden durch Lernen von in-distribution-Detailpriors aus dem Trainingsdatensatz primär beheben. OPP verwendet eine Dual-Paradigm-Struktur, Confidence Radiance Fields und Dual-Paradigm-Fusion, um eine gute Balance zwischen Schärfe und Treue zu erreichen.
In der zweiten Stufe (Fine-Stage) nutzen wir den Diffusion-based 3D Enhancer (Diff3DE), um zusätzliche lebendige plausible Details unter Beibehaltung der 3D-Konsistenz hinzuzufügen. Diff3DE verwendet die Priors aus vortrainierten Diffusionsmodellen wie ControlNet-Tile, ohne weitere Feinabstimmung. Es wählt benachbarte Schlüsselbilder basierend auf der Kameraposition aus und propagiert die Ausgabetokens unter Verwendung von Inflated Self-Attention und barycentrische Interpolation in den Zielblick.
Umfangreiche Experimente auf synthetischen und realen Datensätzen zeigen, dass unser GD2-NeRF-Ansatz die Details deutlich verbessert, ohne Feinabstimmung während der Inferenz zu erfordern.
Sang ngôn ngữ khác
từ nội dung nguồn
arxiv.org
Thông tin chi tiết chính được chắt lọc từ
by Xiao Pan,Zon... lúc arxiv.org 04-01-2024
https://arxiv.org/pdf/2401.00616.pdfYêu cầu sâu hơn