本論文は、自律走行車のための3D知覚の課題に取り組んでいる。カメラ、レーダー、LiDARの3つのセンサーモダリティを組み合わせたマルチモーダルフュージョンは、3D知覚の向上に大きな効果を発揮する。しかし、これらのセンサーが非同期である場合、空間的および時間的な整合性が失われ、パフォーマンスが大幅に低下する。
本研究では、nuScenes データセットを用いて、人為的に非同期データセットを構築し、その影響を分析した。その結果、レーダーデータの時間遅延が大きくなるほど、パフォーマンスが大幅に低下することが分かった。しかし、レーダーの速度情報を利用して、未来のレーダーポイントの位置を推定することで、大幅な性能向上が可能となった。
特に、時間遅延が550ミリ秒の場合、提案手法のカメラ+レーダーモデルは、カメラ+LiDARモデルを0.18 IoU上回った。これは、これまであまり注目されてこなかったレーダーセンサーモダリティの有効活用につながる重要な成果である。
Іншою мовою
із вихідного контенту
arxiv.org
Глибші Запити