本論文提出了一種名為 UnSegMedGAT 的新型無監督醫學影像分割方法,旨在解決醫學影像領域中標註資料稀缺的問題。該方法利用預先訓練的視覺轉換器 (ViT) 和圖注意力網路 (GAT) 來有效地捕捉影像中的固有圖拓撲結構,並在兩個醫學影像資料集上展現出優於現有技術的效能。
醫學影像分割是醫療保健和電腦視覺中一項至關重要的下游任務,現有方法主要使用需要大量標註資料的監督式深度學習技術。然而,由於獲取此類標註資料的難度較大,因此在醫學影像分割中尤其具有挑戰性。
UnSegMedGAT 方法首先使用預先訓練的 DINO-ViT 模型從影像中提取特徵,並根據這些特徵構建一個完整的圖結構。然後,根據特徵差異性對邊緣進行修剪,並使用模組化損失函數以無監督的方式優化分割聚類。該方法採用多頭注意力機制來動態地權衡不同節點及其連接在學習過程中的重要性,並使用模組化矩陣來量化圖中實際邊緣與預期邊緣之間的差異。
作者在兩個醫學影像資料集(ISIC-2018 和 CVC-ColonDB)上評估了 UnSegMedGAT 方法的效能,並與其他先進的無監督方法進行了比較。結果表明,UnSegMedGAT 在兩個資料集上均取得了最先進的結果,甚至在 ISIC-2018 資料集上的效能明顯優於現有的(半)監督式技術 MedSAM。
UnSegMedGAT 方法提供了一種有效的無監督醫學影像分割方法,尤其適用於標註資料稀缺的情況。該方法利用了 ViT 和 GAT 的優勢,能夠有效地捕捉影像中的固有圖拓撲結構,並在多個醫學影像資料集上展現出優於現有技術的效能。
Til et annet språk
fra kildeinnhold
arxiv.org
Viktige innsikter hentet fra
by A. Mudit Adi... klokken arxiv.org 11-05-2024
https://arxiv.org/pdf/2411.01966.pdfDypere Spørsmål