本文提出了一種基於單拍心電圖數據的深度學習算法,能夠區分心房顫動患者的竇性心律和健康個體的竇性心律,為早期診斷心房顫動提供支持。
提出了一種新的醫療影像分割模型HC-Mamba,結合了擴張卷積和深度可分離卷積等優化的卷積方法,提高了模型的感受野和參數效率,在醫療影像分割任務上取得了優秀的性能。
提出一種名為SegHeD的新型多任務分割模型,能夠利用異質性資料進行全部病灶、新發病灶和消失病灶的分割,並融入解剖學知識以提高分割性能。
提出一個針對心臟MRI的視覺基礎模型,可以在分類、分割、標記定位和疾病檢測等多個臨床任務上實現更高的準確性和魯棒性,並且在少量標註數據的情況下也能表現出色。
本研究提出了一種名為SurgPointTransformer的方法,能夠利用RGB-D資料準確重建脊椎骨的三維形狀,無需使用輻射性成像技術。
提出了基於數學公式的資料擴增方法(FDDA)和部分視網膜層複製(PRLC),可以在不需要視網膜平坦化的情況下,提高視網膜層分割的準確性。
提出一個新的可解釋多模態框架SHAP-CAT,利用基於Shapley值的維度降維技術實現有效的多模態融合。該框架使用虛擬染色技術從有限的輸入數據生成新的臨床相關模態,並採用基於Shapley值的機制選擇最重要的維度進行融合,顯著提升了模型性能。
本文提出了一種新的自動食道內視鏡影像展開和拼接框架,結合深度學習和傳統特徵匹配方法,並引入密度加權的同構矩陣優化算法,以生成詳細的食道全景圖,提高診斷準確性和治療效果。
本文提出了四種不同的特徵上下文激勵(FCE)模組,分別集成到YOLOv8模型架構中,以提升模型在兒童腕部骨折檢測任務上的性能。實驗結果顯示,我們提出的YOLOv8+SE模型在GRAZPEDWRI-DX數據集上的mAP@50值達到67.07%,超越了目前最先進的模型性能。此外,我們的YOLOv8+GC模型在保持較高mAP@50值的同時,推理時間也大幅縮短,更適合作為輔助醫生和專家診斷兒童腕部創傷X光影像的電腦輔助診斷工具。
本文提出了一種利用擴散模型生成健康版本的病理影像並檢測異常區域的方法。該方法首先使用ACAT生成初步的顯著性圖,然後利用DDPM和DDIM採樣技術有針對性地修改顯著性圖中的病理區域,同時保留其他正常解剖結構。這種融合的採樣過程確保了最終生成的樣本外觀自然連貫。