本研究では、医療画像セグメンテーションの課題に取り組むため、CSWin-UNetと呼ばれる新しいTransformerベースのU型エンコーダ・デコーダモデルを提案した。
主な特徴は以下の通り:
CSWin自己注意メカニズムを活用し、水平および垂直方向の自己注意学習を実現することで、受容野の相互作用を大幅に改善した。これにより、計算コストを抑えつつ、医療画像の特徴抽出能力を向上させることができた。
UNetのクラシックなアーキテクチャを採用し、エンコーダとデコーダ間でスケールの異なる特徴を効果的に統合することで、セグメンテーション精度を高めた。
デコーダでCARFAEレイヤーを使用することで、ピクセルレベルの正確なセグメンテーションマスクを生成できるようになった。これにより、オブジェクトの境界線や詳細な特徴をより効果的に保持できるようになった。
実験評価の結果、CSWin-UNetは既存手法と比べて、計算効率と分割精度の両面で優れた性能を示すことが確認できた。特に、複雑な臓器の分割や境界線の保持において顕著な改善が見られた。
Till ett annat språk
från källinnehåll
arxiv.org
Djupare frågor