本研究開發了一種基於影像分割、跨主體影像配準和健全的監督性體素相關分析的方法,以研究冠狀動脈電腦斷層血管造影中的局部體積和組織密度特徵與年齡的關聯。
本研究提出了一種多參數方法來評估健康人群中頸部脊髓的微結構和巨觀結構特徵,並開發了一種基於Transformer的深度學習分割框架,以實現頸部脊髓磁共振影像的高精度巨觀結構測量。
本研究提出了一種利用定制的弱監督分類技術和MoCo-v2對比學習的深度學習管道,從乳腺癌H&E染色切片中預測HER2狀態。該管道在TCGA-Yale數據集上實現了0.85±0.02的AUC,並在TCGA-BRCA數據集上的HER2 2+等值病例中達到0.81的AUC,顯示了其在預測HER2狀態和減少FISH檢測需求方面的潛力。
UNICORN是一種能夠整合和處理組織病理學中不同染色方法數據的多模態轉換器模型,可有效預測冠狀動脈粥樣硬化的嚴重程度。
利用磁共振影像的放射組學特徵可以有效預測神經膠質母細胞瘤患者的IDH基因型,這對於診斷和治療計劃的制定非常重要。
Segment Anything Model 2在分割某些腹部器官(尤其是較大且邊界清晰的器官)方面展現了可喜的零樣本性能,突出了其在醫學影像領域的跨域泛化潛力。然而,對於較小和邊界不明確的結構,仍需進一步改進。本研究強調應用通用模型到未見醫學影像的重要性,以及優化輸入提示的關鍵性,這可能顯著提高醫學影像分割的準確性。
我們提出了VascX模型集,這是一套用於分析彩色眼底影像中視網膜血管的全面模型集。我們利用公開數據集和專業評分員對羅特丹研究(Rotterdam Study)中的影像進行註釋,開發了用於血管、動脈-靜脈和視盤分割以及黃斑中心定位的模型。我們的模型在不同設備、影像質量和疾病情況下表現出強大的性能,在動脈-靜脈和視盤分割方面尤其出色,特別是在中等質量影像上的表現。我們的模型在血管分割方面優於人工評分員。VascX模型集提供了一套強大、即用型的模型集和推理代碼,旨在簡化實施並提高自動視網膜血管分析的質量。模型生成的精確血管參數可作為識別眼內外疾病模式的起點。
本研究比較了三種深度學習方法Mamba、SAM和YOLO在前列腺癌組織病理學影像分割任務上的表現。結果顯示High-order Vision Mamba UNet (H-vmunet)模型在Gleason 2019和SICAPv2數據集上均取得最佳的分割性能。H-vmunet的先進架構整合了高階視覺狀態空間和2D選擇性掃描操作,使其能夠有效且敏感地檢測不同尺度的病變區域。
持續學習是一種關鍵的方法,可以開發統一和可持續的深度模型,以應對新的類別、任務以及非平穩環境中數據的漂移性。
開發一個名為EvanySeg的分割品質評估模型,能夠在不依賴真實標註的情況下,評估由Segment Anything Model (SAM)及其變體產生的分割結果的品質。