Unser Ansatz GD2-NeRF ist ein zweistufiges generatives Detailkompensationsframework, das sowohl feintuning-freie Inferenz als auch lebendige plausible Details ermöglicht. In der ersten Stufe injiziert OPP effizient ein GAN-Modell in bestehende OG-NeRF-Pipelines, um die Unschärfe-Probleme mit in-distribution-Priors aus dem Trainingsdatensatz zu beheben. In der zweiten Stufe nutzt Diff3DE die out-distribution-Priors aus vortrainierten Diffusionsmodellen, um zusätzliche lebendige Details bei gleichzeitiger 3D-Konsistenz hinzuzufügen.
GD2-NeRF is a coarse-to-fine generative detail compensation framework that hierarchically includes GAN and pre-trained diffusion models into One-shot Generalizable Neural Radiance Fields (OG-NeRF) to synthesize novel views with vivid plausible details in an inference-time finetuning-free manner.