核心概念
本研究提出了一種基於因果推論和擴散模型的單源跨模態醫學影像分割方法,透過模擬不同成像模態的風格,學習領域不變的影像表徵,從而提升模型在跨模態分割任務中的泛化能力。
摘要
書目資訊
Chen, B., Zhu, Y., Ao, Y., Caprara, S., Sutter, R., Rätsch, G., ... & Susmelj, A. (2024). Generalizable Single-Source Cross-modality Medical Image Segmentation via Invariant Causal Mechanisms. arXiv preprint arXiv:2411.05223.
研究目標
本研究旨在解決單源跨模態醫學影像分割中的領域泛化問題,即利用單一模態的訓練資料,訓練出能夠泛化到其他未見模態的分割模型。
方法
本研究提出了一種基於因果推論和擴散模型的單源領域泛化方法,稱為 ICMSeg。該方法基於結構因果模型,假設影像生成過程包含內容和風格兩個隱變量,並利用控制性擴散模型模擬不同成像模態的風格,同時保留影像內容,從而學習領域不變的影像表徵。具體而言,ICMSeg 包含兩個階段:
- 風格干預模組訓練: 首先利用 DreamBooth 對預先訓練的 Stable Diffusion 模型進行微調,使其適應於源域資料的風格。然後,使用 ControlNet 模組學習如何在生成過程中注入影像條件,例如分割標籤。
- 分割模型訓練: 利用訓練好的風格干預模組,生成與源域影像具有相同分割標籤但不同風格的增強影像。最後,使用源域影像和增強影像訓練分割模型,並使用 InfoNCE 損失函數作為正則化項,以提取領域不變的內容特徵。
主要發現
本研究在三個跨模態醫學影像分割任務(腹部分割、腰椎分割和肺部分割)上進行了實驗,結果表明 ICMSeg 在所有任務中均優於現有的單源領域泛化方法,包括 MixStyle、RandConv、DualNorm、CSDG 和 SLAug。
主要結論
本研究證明了基於因果推論和擴散模型的風格干預方法可以有效地提升單源跨模態醫學影像分割模型的泛化能力。
意義
本研究為解決醫學影像分析中的領域泛化問題提供了一種新的思路,並具有廣泛的應用前景。
局限性和未來研究方向
本研究提出的方法仍然存在一些局限性,例如 ControlNet 模組在處理精細結構時存在困難。未來研究方向包括:
- 開發更精確的影像生成模型,以更好地模擬不同成像模態的風格。
- 研究如何將不確定性估計方法融入到框架中,以解決由於粗略控制導致的標籤噪聲問題。
統計資料
在腹部分割任務中,ICMSeg 在 CT 到 MRI 和 MRI 到 CT 方向上的平均 Dice 分數分別為 86.20% 和 90.17%。
在腰椎分割任務中,ICMSeg 超過了之前表現最佳的方法 3.13%(CT 到 MRI)和 4.03%(MRI 到 CT)。
在肺部分割任務中,ICMSeg 的平均 Dice 分數為 78.79%,比表現次佳的方法(SLAug,68.01%)高出 10.78%。
引述
"In this work, we consider a challenging yet practical setting: SDG for cross-modality medical image segmentation."
"We combine causality-inspired theoretical insights on learning domain-invariant representations with recent advancements in diffusion-based augmentation to improve generalization across diverse imaging modalities."
"Guided by the 'intervention-augmentation equivariant' principle, we use controlled diffusion models (DMs) to simulate diverse imaging styles while preserving the content, leveraging rich generative priors in large-scale pretrained DMs to comprehensively perturb the multidimensional style variable."