Zhenwei Yang, Jilei Mao, Wenxian Yang, Yibo Ai, Yu Kong, Haibao Yu, & Weidong Zhang. (2024). LiDAR-based End-to-end Temporal Perception for Vehicle-Infrastructure Cooperation. arXiv. https://arxiv.org/abs/2411.14927v1
本研究旨在解決自動駕駛中單車感知系統面臨的挑戰,特別是在複雜的城市環境中,遮擋和盲點會限制視野,阻礙 CAV 獲得對周圍環境的完整可靠理解。
本文提出了一種基於激光雷達的車路協同端到端跟踪框架 LET-VIC,該框架充分利用了車輛側和基礎設施側傳感器的激光雷達點雲數據,並結合時間數據,大大增強了在複雜交通環境中的目標檢測和跟踪能力。 該框架採用了一種先進的特徵融合策略,使用 VIC 交叉注意力機制將基礎設施側的鳥瞰圖 (BEV) 特徵無縫集成到車輛側的 BEV 表示中。 此外,我們採用校準誤差補償 (CEC) 模塊來補償車輛側和基礎設施側傳感器之間的校準誤差,從而實現精確可靠的 3D 目標感知。
在捕獲具有挑戰性的現實駕駛場景的 V2X-Seq-SPD 數據集上進行的嚴格測試表明,LET-VIC 持續優於現有的協作跟踪方法。
LET-VIC 作為首個基於激光雷達的 VIC 端到端跟踪框架,為解決自動駕駛中的主要感知挑戰(包括有限的感知範圍和遮擋)提供了一種實用的解決方案和新的研究方向。
這項工作為通過車路協同推進自動駕駛中的時空感知提供了一種實用的解決方案和新的研究方向。
LET-VIC 雖然有效,但僅依賴於來自激光雷達傳感器的點雲輸入。 儘管點雲提供了準確的深度和 3D 結構,但它們缺乏顏色和紋理細節,影響了對精細物體屬性的識別。 此外,點雲在較長距離或複雜環境中可能會變得稀疏,從而影響檢測和跟踪的準確性。 相反,圖像數據提供了豐富的語義信息,但缺乏深度。 未來的研究重點將放在融合點雲和圖像特徵上,以增強空間感知和語義理解,從而提高系統在複雜環境中的整體性能。 另一個限制是缺乏對 VIC 中通信延遲的補償,這會影響實時跟踪性能。 未來的研究將通過制定策略來減輕時間延遲來解決這個問題,從而確保跨多視圖傳感器進行更準確和穩健的跟踪。
翻譯成其他語言
從原文內容
arxiv.org
深入探究