核心概念
多感測器融合顯著提高了三維語義佔用預測的準確性和健壯性,這對於自動駕駛和機器人系統至關重要。我們提出了一種新的多感測器融合佔用預測框架DAOcc,利用三維物體檢測監督來提高性能,同時使用部署友好的圖像特徵提取網絡和實用的輸入圖像分辨率。此外,我們引入了一種BEV視角範圍擴展策略,以緩解降低圖像分辨率所帶來的不利影響。
摘要
本文提出了一種名為DAOcc的新型多感測器融合三維語義佔用預測框架。
首先,DAOcc採用了簡單高效的多模態特徵提取和融合方法,消除了對複雜變形注意力模塊和單目深度估計的需求。
其次,為了充分利用點雲特徵中固有的幾何結構信息,DAOcc將三維物體檢測作為輔助監督引入,增強了融合特徵的識別能力。
此外,DAOcc引入了一種BEV視角範圍擴展策略(BVRE),提供了更大的BEV視野,提供了更多的上下文信息,並緩解了降低圖像分辨率的不利影響。
實驗結果表明,DAOcc在Occ3D-nuScenes和SurroundOcc基準上取得了最新的最佳成績,同時使用了ResNet50和256x704的輸入圖像分辨率。
統計資料
在Occ3D-nuScenes驗證集上,DAOcc在使用相機遮罩進行訓練時達到53.82 mIoU,在不使用相機遮罩時達到48.2 RayIoU。
在SurroundOcc驗證集上,DAOcc達到45.0 IoU和30.5 mIoU。
引述
"多感測器融合顯著提高了三維語義佔用預測的準確性和健壯性,這對於自動駕駛和機器人系統至關重要。"
"我們提出了一種新的多感測器融合佔用預測框架DAOcc,利用三維物體檢測監督來提高性能,同時使用部署友好的圖像特徵提取網絡和實用的輸入圖像分辨率。"
"我們引入了一種BEV視角範圍擴展策略,提供了更大的BEV視野,提供了更多的上下文信息,並緩解了降低圖像分辨率的不利影響。"