Kernkonzepte
手術ビデオから重要な外科ツールや解剖学的構造を効率的に発見し、セグメンテーションする手法を提案する。
Zusammenfassung
本研究では、手術ビデオの意味的セグメンテーションを効率的に行うための手法「SURGIVID」を提案している。
まず、自己教師あり学習モデルDINOを用いて手術シーンの特徴を抽出し、MaskCutアルゴリズムによって無監督でオブジェクトを発見する。
次に、この発見されたオブジェクトマスクを用いて、Mask2Formerモデルを自己教師あり学習させる。
さらに、少量の手動アノテーションを加えることで、完全教師あり学習モデルと同等の性能を達成できることを示している。
また、手術フェーズラベルを弱教師情報として活用することで、ツールの検出精度をさらに向上させることができる。
提案手法は、医療現場での手術ビデオ活用を促進する可能性を秘めており、特に手術ツールや解剖学的構造の効率的な発見と分割に貢献できる。
Statistiken
手術ツールの平均IoU(Intersection over Union)は69.55%
全クラスの平均IoUは80.69%
1%の手動アノテーションでも、完全教師あり学習モデルと同等の性能を達成
Zitate
"Considering the profusion of surgical videos obtained through standardized surgical workflows, we propose an annotation-efficient framework for the semantic segmentation of surgical scenes."
"Extensive ablation studies on the CaDIS dataset validate the effectiveness of our proposed solution in discovering relevant surgical objects with minimal or no supervision."