核心概念
手術用ロボットツールの追跡における画像ベースのアプローチの効果を示す。
摘要
手術用ロボットツールの追跡は、カメラから基底への変換と関節角度エラーを推定することで行われます。挿入軸検出アルゴリズムと確率モデルを使用して、画像に基づいた方法が提案されています。これらの手法は構造化環境と非構造化環境の両方で適用され、その有効性が実証されています。手術自動化において重要な役割を果たす挿入軸や関節角度エラーを推定するために新しいアプローチが提案されています。深層ニューラルネットワーク(DNN)を使用した挿入軸検出アプローチが紹介され、粒子フィルターに統合されて評価されました。
統計資料
画像から基底への変換と関節角度オフセットを同時に推定するための共通キャリブレーション技術が提案されています。
パーティクルフィルターを使用して時間的に確率分布を追跡し、観測値からランプ誤差を推定します。
挿入軸ライン検出アルゴリズムはSOLD2(自己監督型遮蔽感知ライン記述および検出DNN)に置き換えられました。
挿入軸ライン検出から4つの異なる観測モデルが導かれ、それらが実験的に比較されました。
実験結果では、提案手法が従来手法よりも優れた性能を示しました。
引述
"Robotic tool tracking under partially visible kinematic chain: A unified approach." - F. Richter, J. Lu, R. K. Orosco, and M. C. Yip.
"Our experimental results demonstrate that our tool tracking algorithms are not only more accurate in structured environments than the current state-of-the art approach but are also more generalizable to less structured environments." - F. Richter, E. K. Funk, W. S. Park, R. K. Orosco, and M. C. Yip.