本文提出了一種名為 GPS-Gaussian+ 的新型視圖合成方法,該方法利用可泛化的 3D 高斯樣條函數,即使在沒有深度資訊的情況下,也能從稀疏的視角實現對人物和場景的高品質、實時渲染。
従来の微分可能なレンダリング手法は、人物の自由視点ビデオ合成において有望な結果を示してきたものの、リアルタイムレンダリングには不向きでした。本論文では、スパースビューカメラ設定下での高解像度画像レンダリングを実現する、汎用的なガウススプラッティング手法であるGPS-Gaussian+を提案します。この手法は、ソースビュー上に定義されたガウスパラメータマップを導入し、ファインチューニングや最適化なしに、新規ビュー合成のためのガウス特性を直接回帰します。実験の結果、GPS-Gaussian+は、従来手法を凌駕する性能と、非常に高速なレンダリング速度を達成することが示されました。
This paper introduces GPS-Gaussian+, a novel method for real-time, high-fidelity novel view synthesis of human-centered scenes from sparse views, leveraging the efficiency of 3D Gaussian Splatting and a novel pixel-wise parameter prediction approach.
本文提出了一種名為廣告牌拼接 (BBSplat) 的新型三維場景表示方法,它使用可學習的紋理平面基元來表示場景,並在保持高渲染速度的同時,實現了優於現有方法的視覺保真度和更小的模型尺寸。
BBSplat은 텍스처 기반 기하 프리미티브를 활용하여 기존 3D 가우시안 스플래팅 방식보다 더 빠르고 효율적인 새로운 뷰 합성 방법을 제시하며, 특히 적은 수의 프리미티브를 사용하는 경우에도 높은 품질의 렌더링 결과를 제공합니다.
BBSplat is a novel method for 3D scene representation that utilizes learnable textured primitives, enabling efficient and high-quality novel view synthesis with a significant reduction in rendering time and storage costs compared to traditional Gaussian-based methods.
本文提出了一種基於像素空間擴散模型的端到端新型視圖合成方法 VIVID,該方法在性能上顯著優於先前基於潛在空間擴散模型的方法,並通過消融實驗證明了複雜的幾何編碼方法對性能的提升微乎其微,而強大的擴散模型架構才是提升性能的關鍵。此外,本文還提出了一種利用單視圖數據集進行新型視圖合成訓練的新方案,以解決多視圖數據集的局限性,並通過實驗證明了該方案在域外數據上的有效性。
본 논문에서는 단일 이미지에서 사실적인 새로운 뷰를 합성하는 데 탁월한 성능을 보이는 픽셀 공간 확산 모델 기반의 새로운 뷰 합성 (NVS) 방법론인 VIVID를 제안합니다.
This research adapts a pixel-space diffusion model for novel view synthesis (NVS), achieving state-of-the-art results and introducing a novel training scheme using single-view datasets to enhance generalization capabilities.
UC-NeRF is a novel method for synthesizing high-quality novel views from sparse endoscopic images by incorporating multi-view uncertainty estimation into a conditional Neural Radiance Field framework.