本論文は、半教師あり医療画像セグメンテーションの性能向上を目的としている。従来の半教師あり手法は、画像レベルや/およびモデルレベルの変形を用いて、教師なしデータの予測結果の一貫性を維持することを目指してきた。しかし、医療画像には重要な構造情報が存在するにもかかわらず、これまでよく活用されていなかった。
本論文では、新しい双対構造認識フィルタリング(DSAIF)を提案する。DSAIF は、Max-tree とMin-tree と呼ばれる構造認識ツリー表現に基づいて設計されている。具体的には、これらのツリーから、兄弟ノードを持たない(つまり、祖先ノードと同等の)ノードを除去することで、元の画像と同じ位相構造を持つが外観の異なる2つの画像を生成する。さらに、これらのツリー表現が単調増加の輝度変換に不変であることを利用し、変換前後で外観が大きく異なる画像を生成することで、確認バイアスの問題をより効果的に軽減する。
提案手法は、教師あり/教師なしデータに対する相互教師学習フレームワークに組み込まれ、3つのベンチマークデータセットで顕著な性能向上を示した。特に、ラベル付きデータを20%しか使わずに、ほぼ完全なセグメンテーション精度(Dice係数99.5%以上)を達成した。
Іншою мовою
із вихідного контенту
arxiv.org
Ключові висновки, отримані з
by Yuliang Gu,Z... о arxiv.org 03-28-2024
https://arxiv.org/pdf/2312.07264.pdfГлибші Запити