核心概念
提案手法CMRNextは、センサ固有のパラメータに依存せず、新しい環境や異なるセンサ構成にも適応可能な、カメラとLiDARの統合的な位置推定と外部パラメータ校正を実現する。
要約
本論文では、CMRNextと呼ばれる新しい手法を提案している。CMRNextは、カメラ画像とLiDARスキャンを統合し、センサ固有のパラメータに依存せずに、位置推定と外部パラメータ校正を行うことができる。
提案手法の主な特徴は以下の通りである:
ピクセルレベルでのカメラ-LiDAR対応付けを行い、メトリック情報から分離することで、カメラの内部パラメータに依存しない。
対応付けの信頼性を表す不確実性推定を行い、ロバストな姿勢推定を実現する。
複数のデータセットを用いて一括学習することで、未知の環境や異なるセンサ構成にも適応可能。
反復的な姿勢推定手法を採用し、初期位置の誤差を段階的に低減する。
提案手法は、6つのロボットプラットフォームで評価され、既存手法を大きく上回る性能を示した。特に、未知の環境や異なるセンサ構成においても、ゼロショット学習で高い汎化性能を発揮した。
統計
LiDARマップ上の3Dポイントの座標は以下のように計算される:
[xinit yinit zinit 1]⊺= Hinit
map ·[xmap ymap zmap 1]⊺
カメラ画像上のピクセル位置は以下のように計算される:
[uinit vinit 1]⊺= K ·[xinit yinit zinit 1]⊺
ここで、Hinit
mapは初期位置推定、Kはカメラの内部パラメータ行列である。