本研究比較了三種深度學習方法Mamba、SAM和YOLO在前列腺癌組織病理學影像分割任務上的表現。
首先介紹了三種方法的特點:
接下來介紹了兩個用於評估的數據集:Gleason 2019和SICAPv2。這些數據集包含了前列腺癌組織病理學影像及其相應的分割標註,但也存在一些挑戰,如標註之間的差異和類別不平衡等。
結果部分顯示,H-vmunet在兩個數據集上均取得最佳的分割性能,Dice係數、精確度和召回率指標都優於其他兩種方法。這歸功於H-vmunet先進的架構,能夠有效捕捉不同尺度的病變特徵。
雖然SAM和YOLO在其他任務中表現出色,但在前列腺癌組織病理學影像分割上未能超越H-vmunet。這可能是因為SAM過度依賴人工提示,而YOLO更擅長於物體檢測,而不是醫學影像中細緻的組織分割。
總的來說,本研究突出了H-vmunet在前列腺癌診斷中的潛力,為臨床應用提供了重要啟示。未來的研究方向應集中在提高H-vmunet的計算效率,增強模型的泛化能力,並探索其在其他醫學影像任務中的應用。
Başka Bir Dile
kaynak içeriğinden
arxiv.org
Önemli Bilgiler Şuradan Elde Edildi
by Ali Badiezad... : arxiv.org 09-25-2024
https://arxiv.org/pdf/2409.16205.pdfDaha Derin Sorular