本研究では、手術ビデオの意味的セグメンテーションを効率的に行うための手法「SURGIVID」を提案している。
まず、自己教師あり学習モデルDINOを用いて手術シーンの特徴を抽出し、MaskCutアルゴリズムによって無監督でオブジェクトを発見する。
次に、この発見されたオブジェクトマスクを用いて、Mask2Formerモデルを自己教師あり学習させる。
さらに、少量の手動アノテーションを加えることで、完全教師あり学習モデルと同等の性能を達成できることを示している。
また、手術フェーズラベルを弱教師情報として活用することで、ツールの検出精度をさらに向上させることができる。
提案手法は、医療現場での手術ビデオ活用を促進する可能性を秘めており、特に手術ツールや解剖学的構造の効率的な発見と分割に貢献できる。
In un'altra lingua
dal contenuto originale
arxiv.org
Approfondimenti chiave tratti da
by Çağh... alle arxiv.org 09-13-2024
https://arxiv.org/pdf/2409.07801.pdfDomande più approfondite