核心概念
本文提出了一種新穎的立體全景影像合成方法,能夠將立體物件插入到目標 360 度立體影像中,並在觀看者改變視角時保持一致且逼真的深度感知。
本研究旨在解決將立體物件合成到 360 度全景影像中時,觀看者在不同視角下深度感知不一致的問題。
稀疏三維重建: 使用立體影像深度估計網路 (STTR) 估計前景物件和目標場景的深度資訊,並將其轉換為三維點雲。
視圖分割與投影: 根據使用者虛擬位置,將點雲分割成多個區域,並為每個區域建立虛擬相機對,進行視圖投影,生成稀疏深度圖。
基於深度學習的深度圖密集化: 提出一個深度學習網路 (DDDN),學習從稀疏深度圖生成密集且準確的深度圖和物件遮罩,以應對物件姿態變化。
最終立體全景圖生成: 使用密集深度圖將每個視圖分割的立體內容合成到目標全景圖中,並根據深度資訊處理遮擋關係,最終生成具有正確深度感知的立體全景影像。