核心概念
センサー誤差に対して頑健な長距離知覚システムを提案する。センサー誤差を検出・推定し、それを補正することで、長距離での物体検出精度を向上させる。
要約
本研究では、自動運転車のセンサー誤差に対して頑健な知覚システムを提案している。
- カメラとLiDARの相対的な位置ズレ(ロール、ピッチ、ヨー)を検出・推定する手法を開発した。
- 多タスク学習により、物体検出とセンサー誤差推定を同時に行う。
- 推定された誤差パラメータを用いて入力データを補正することで、長距離での物体検出精度を向上させた。
- 合成データを用いた学習手法により、実際のセンサー誤差に対する頑健性を高めている。
- 長距離データセットを用いた評価実験では、提案手法が基準モデルに比べて大幅な性能向上を示した。
- 短距離のWaymoデータセットでも、2D物体検出精度の向上が確認された。
統計
5ミリラジアンの角度誤差は450メートルの距離で2.25メートルの位置誤差に相当し、カメラとLiDARのデータ融合に深刻な影響を及ぼす。
提案手法は、ロール角で最大0.309度、ピッチ角で最大0.248度、ヨー角で最大0.068度の誤差推定精度を達成した。
引用
"センサー位置の相対的な変化を監視することは、安全運転のために非常に重要である。センサーの位置が当初の位置から逸脱していることが検出された場合、自動運転車のプランナーシステムは受け入れ可能なリスクレベルまで緩和するための適切な措置を講じることができる。"
"センサー融合アルゴリズムやモデルは、センサー間の正確な空間関係と変換を定義する内部パラメータと外部パラメータに依存している。これらのパラメータは較正プロセスを通じて決定される。これらのパラメータからの逸脱は、センサーデータ融合プロセスの不整合を引き起こし、結果として誤った物体検出、位置推定エラー、そして最終的には意思決定能力の低下につながる可能性がある。"