核心概念
本手法は、登録誤差を認識することで、ワンショット脳組織分割の精度を大幅に向上させる。
要約
本論文は、脳組織のワンショット分割に関する手法であるStyleSeg V2を提案している。従来のStyleSegでは、不完全な登録モデルによる画像-マスクの不整合が分割モデルの学習を阻害していた。
StyleSeg V2では、入力画像を左右反転させて登録誤差を検出する最適化不要の手法を導入した。これにより、正しく整列した領域を活用しつつ、ワープされたアトラス画像の忠実性も向上させることができる。
具体的には以下の2つの技術を提案している:
- 重み付き画像整列スタイル変換(WIST): 登録誤差に応じて、ワープされたアトラス画像のスタイル変換の強度を動的に調整する。これにより、整合性の高い変換画像を生成できる。
- 信頼度ガイド Dice損失: 不整合領域を抑制しつつ、正しく整列した領域の情報を分割モデルの学習に活用する。
3つのデータセットでの評価実験の結果、StyleSeg V2は従来手法を大幅に上回る分割精度を達成した。特に、StyleSegに比べて平均Diceスコアが2.0%、2.4%、1.7%それぞれ向上した。また、登録精度においても大幅な改善が確認された。
統計
提案手法StyleSeg V2は、従来手法StyleSegに比べて、OASIS、CANDIShare、MM-WHS 2017データセットにおいて、平均Diceスコアをそれぞれ2.0%、2.4%、1.7%向上させた。
StyleSeg V2の登録モデルは、StyleSegの登録モデルに比べて、OASIS、CANDIShare、MM-WHS 2017データセットにおいて、Diceスコアをそれぞれ0.7%、1.6%、1.6%向上させた。
引用
"本手法は、登録誤差を認識することで、ワンショット脳組織分割の精度を大幅に向上させる。"
"WISTにより、整合性の高い変換画像を生成でき、信頼度ガイドDice損失によって不整合領域を抑制しつつ正しく整列した領域の情報を活用できる。"
"3つのデータセットでの評価実験の結果、StyleSeg V2は従来手法を大幅に上回る分割精度を達成した。"