Основные понятия
本文提出了一種名為CVT-Occ的創新方法,通過利用時間融合和幾何對應來顯著提高三維佔用預測的準確性。與傳統依賴單目或雙目視覺的方法不同,我們的方法利用多視角時間融合,有效地結合歷史觀測結果,利用視差效應來改善深度估計。我們創新性地構建了一個成本體積特徵圖,通過採樣和整合跨時間幀的特徵來實現這一目標,在Occ3D-Waymo數據集上表現優於當前最先進的模型,在保持低計算開銷的同時實現了更高的準確性。
Аннотация
本文提出了一種名為CVT-Occ的創新方法,用於提高三維語義佔用預測的準確性。
- 問題背景:
- 基於單目視覺的三維佔用預測存在固有的深度估計模糊性問題。
- 雙目視覺可以增強深度估計的準確性,但在實際應用中存在較大局限性。
- 利用多視角時間融合是一種更有前景的方法,可以利用隨時間增加的多視角基線來增強三維感知任務。
- 方法創新:
- 提出了CVT-Occ,一種利用時間融合和幾何對應來提高三維佔用預測準確性的新方法。
- 通過沿每個體素的視線方向採樣點,並將這些點投射到歷史幀中,構建了一個成本體積特徵圖。
- 這種方法利用了歷史觀測的視差線索,採用數據驅動的方法學習成本體積,從而提高了預測的準確性。
- 實驗結果:
- 在Occ3D-Waymo數據集上,CVT-Occ優於當前最先進的方法,在保持低計算開銷的同時實現了更高的準確性。
- 在不同條件下的實驗,如二分類、不同BEV範圍和不同車速,都證明了CVT-Occ在深度估計方面的優越性。
- 結論:
- CVT-Occ顯著提高了三維佔用預測的準確性,為時間融合在三維感知任務中的應用開闢了新的道路。
- 未來可以將成本體積模塊應用於其他任務,如三維重建,以及機器人和虛擬現實等領域。
Статистика
在Occ3D-Waymo數據集上,CVT-Occ的平均交並比(mIoU)達到27.37%,較基準模型BEVFormer提高了2.8個百分點。
Цитаты
"我們創新性地構建了一個成本體積特徵圖,通過採樣和整合跨時間幀的特徵來實現這一目標,在Occ3D-Waymo數據集上表現優於當前最先進的模型,在保持低計算開銷的同時實現了更高的準確性。"