Core Concepts
ロボット端末とセンサー間の幾何学的な関係を利用することで、従来の手眼キャリブレーション手法よりも高精度で反復可能な変換行列を導出できる。
Abstract
本研究では、ロボット支援TMS手術のための新しい手眼キャリブレーション手法「GBEC」を提案している。従来の手眼キャリブレーション手法は、ロボットの姿勢データを用いた回帰分析に依存するため、低い精度と反復性を示していた。GBECでは、ロボット端末の幾何学的特徴を利用することで、ロボットの姿勢データに依存せずに高精度で反復可能な変換行列を導出できる。
具体的には、ロボット端末に取り付けた目印となる特徴点の位置を事前に幾何学的に定義しておき、光学式トラッカーで実際に計測した特徴点の位置との最小二乗マッチングを行うことで、端末とセンサー間の変換行列を求める。この手法により、従来手法と比べて高い精度と反復性を実現できることを示している。
また、GBECは対称的な特徴点配置だけでなく非対称な配置にも適用可能であり、ロボット支援TMS手術だけでなくロボット支援大腿骨手術にも適用できることを示している。さらに、カメラ搭載型の手眼キャリブレーションにも拡張可能であることを述べている。
Stats
ロボット支援TMS手術におけるGBECの結果:
端末とセンサー間の変換行列の標準偏差
X軸: 0.37 mm
Y軸: 0.65 mm
Z軸: 0.40 mm
ロボット支援大腿骨手術におけるGBECの結果:
特徴点の最小二乗マッチング誤差の標準偏差
特徴点1: 0.2744 mm
特徴点2: 0.3067 mm
特徴点3: 0.3772 mm
特徴点4: 0.4005 mm