核心概念
本文提出了一種基於視圖一致性的雙目引導三維高斯散射方法,用於從稀疏視圖合成新視圖,無需外部先驗作為監督,並通過實驗證明了其在渲染質量和效率方面優於現有方法。
論文信息
Liang Han, Junsheng Zhou, Yu-Shen Liu, Zhizhong Han. Binocular-Guided 3D Gaussian Splatting with View Consistency for Sparse View Synthesis. Advances in Neural Information Processing Systems, 2024.
研究目標
本研究旨在解決從稀疏輸入視圖合成新視圖這一計算機視覺中的重要挑戰,並提出一種基於三維高斯散射的新方法,無需外部先驗信息,即可高效、高質量地合成新視圖。
方法
雙目立體一致性約束:
為了學習更精確的高斯場景幾何形狀,該方法利用了雙目立體一致性中固有的自監督信息來約束三維高斯散射的渲染深度。
首先將一個輸入視圖的相機稍微平移到左側或右側,以獲得一個平移視圖,並從中渲染出三維高斯散射的圖像和深度。
渲染的圖像和輸入圖像形成一個左右視圖對,利用渲染的深度和已知的相機內參計算視圖對的視差。
使用視差將平移視圖的渲染圖像扭曲到輸入圖像的視點,並約束扭曲圖像和輸入圖像之間的一致性。
高斯不透明度衰減策略:
為了減少場景表面附近冗餘的高斯點並提高新視圖合成的質量和效率,該方法提出了一種高斯不透明度的衰減方案。
在訓練過程中,對高斯的不透明度屬性應用一個衰減係數,從而懲罰不透明度。
不透明度梯度較低的高斯點(即不透明度增加量小於衰減量)被修剪,而不透明度梯度較高的高斯點(即不透明度增加量大於衰減量)被保留。
密集點雲初始化:
為了在對稀疏視圖進行優化時獲得更好的幾何初始化以提高三維高斯散射質量,該方法使用預先訓練好的關鍵點匹配網絡生成密集的初始化點雲。
密集的點雲更準確地描述了場景的幾何形狀,防止了高斯點出現在遠離場景表面的位置,特別是在低紋理區域,從而提高了新視圖合成的質量。
主要結果
在 LLFF、DTU 和 Blender 數據集上進行的大量實驗表明,該方法在 PSNR、SSIM 和 LPIPS 等指標上顯著優於現有的稀疏視圖合成方法。
實驗結果證明,該方法能夠從稀疏視圖中合成高質量的新視圖,並在渲染質量和效率方面優於現有方法。
意義
本研究提出了一種基於視圖一致性的雙目引導三維高斯散射方法,為稀疏視圖合成提供了一種新的思路。
該方法無需外部先驗信息,即可高效、高質量地合成新視圖,具有重要的應用價值。
局限性
由於該方法利用視圖一致性約束來估計場景深度,因此一些紋理較低的場景區域可能會導致深度估計不準確,從而無法有效地約束相應的高斯點。
統計資料
在 LLFF 數據集上,使用 3 個、6 個和 9 個輸入視圖時,該方法的 PSNR 分別比現有最佳方法提高了 0.10dB、0.62dB 和 0.86dB。
在 DTU 數據集上,使用 3 個、6 個和 9 個輸入視圖時,該方法的 PSNR 分別比現有最佳方法提高了 0.40dB、0.57dB 和 1.42dB。