本論文は、視覚慣性融合のための新しい連続時間状態推定フレームワークを提案している。具体的には以下の通りである:
姿勢と速度をシェビシェフ多項式で近似し、位置は速度の積分から得る。未知の多項式係数は、初期条件、動力学、測定値の残差を最小化することで決定する。
この手法は、フィルタ法のような線形化誤差を回避し、慣性測定値を直接利用する。また、離散時間の慣性前積分法と比べ、元の準ガウス性を保持する。
連続時間フォーマットにより、非同期センサの融合が容易になる。シェビシェフ多項式の使用により、高精度かつ効率的な計算が可能となる。
シミュレーションと実験結果から、提案手法は姿勢、速度、位置の推定精度において従来手法を上回ることが示された。特に速度と位置の推定精度が30%から50%改善された。また、計算時間も約50%短縮された。
他の言語に翻訳
原文コンテンツから
arxiv.org
深掘り質問