本論文は、脳組織のワンショット分割に関する手法であるStyleSeg V2を提案している。従来のStyleSegでは、不完全な登録モデルによる画像-マスクの不整合が分割モデルの学習を阻害していた。
StyleSeg V2では、入力画像を左右反転させて登録誤差を検出する最適化不要の手法を導入した。これにより、正しく整列した領域を活用しつつ、ワープされたアトラス画像の忠実性も向上させることができる。
具体的には以下の2つの技術を提案している:
3つのデータセットでの評価実験の結果、StyleSeg V2は従来手法を大幅に上回る分割精度を達成した。特に、StyleSegに比べて平均Diceスコアが2.0%、2.4%、1.7%それぞれ向上した。また、登録精度においても大幅な改善が確認された。
Til et annet språk
fra kildeinnhold
arxiv.org
Viktige innsikter hentet fra
by Zhiwei Wang,... klokken arxiv.org 05-07-2024
https://arxiv.org/pdf/2405.03197.pdfDypere Spørsmål