多感測器融合顯著提高了三維語義佔用預測的準確性和健壯性,這對於自動駕駛和機器人系統至關重要。我們提出了一種新的多感測器融合佔用預測框架DAOcc,利用三維物體檢測監督來提高性能,同時使用部署友好的圖像特徵提取網絡和實用的輸入圖像分辨率。此外,我們引入了一種BEV視角範圍擴展策略,以緩解降低圖像分辨率所帶來的不利影響。
本文提出了一種名為CVT-Occ的創新方法,通過利用時間融合和幾何對應來顯著提高三維佔用預測的準確性。與傳統依賴單目或雙目視覺的方法不同,我們的方法利用多視角時間融合,有效地結合歷史觀測結果,利用視差效應來改善深度估計。我們創新性地構建了一個成本體積特徵圖,通過採樣和整合跨時間幀的特徵來實現這一目標,在Occ3D-Waymo數據集上表現優於當前最先進的模型,在保持低計算開銷的同時實現了更高的準確性。