本文提出了一種新的多模態組織病理學圖像對齊框架。該框架以細胞分割結果為基礎,首先使用Coherent Point Drift (CPD)方法進行初步對齊,然後利用Graph Matching (GM)方法進行精細校正,從而建立不同模態(如多重免疫熒光和H&E染色)之間的細胞空間對應。
在卵巢癌組織微陣列(TMA)數據集上的評估結果表明,該方法能夠實現高精度的圖像對齊,從而使得跨模態的細胞特徵整合和分析成為可能。具體而言:
該方法能夠有效地將H&E圖像對齊到多重免疫熒光(MxIF)圖像,實現細胞層面的特徵整合。通過比較對齊前後細胞的形態學和染色特徵,發現它們具有高度一致性,特別是在重染色的組織切片中。
區域分析也證實,儘管不同模態的自動細胞分割結果存在差異,但對齊後的細胞密度和細胞組成仍然具有很高的一致性。
多模態對齊還使得能夠訓練深度學習模型,從MxIF圖像生成高保真度的虛擬H&E圖像,為臨床提供參考。
總的來說,本文提出的方法為組織病理學圖像的多模態整合分析提供了有效的解決方案,並展示了在實際應用中的潛力。
翻译成其他语言
从原文生成
arxiv.org
更深入的查询