本研究提出了一個框架,利用深度學習技術自動從電腦斷層掃描(CT)影像中分割出140種解剖結構,並實施嚴格的質量控制,生成了超過2500個個人化的計算模型。這些模型涵蓋了各種年齡、性別、種族和體質指數的人群,可用於虛擬醫學影像試驗。
具體來說,研究團隊開發了一個名為DukeSeg的深度學習分割模型,能夠自動識別CT影像中的140種解剖結構。為確保分割結果的準確性,團隊設計了一套多步驟的質量控制流程,包括雙側對稱性檢查、體積閾值篩選、統計異常檢測,以及醫生的人工審查。通過這些步驟,團隊最終篩選出2,528個獨特的個人化模型。
這些模型不僅包含了詳細的解剖結構,還附有人口統計學和臨床資訊,如年齡、性別、種族和體質指數等。研究團隊還開發了一個交互式網絡應用程序,讓使用者能夠瀏覽和探索這些模型。
這些個人化的計算模型可以用於各種虛擬醫學影像試驗,如評估成像技術、模擬手術計劃,以及用於虛擬現實等應用。相比於傳統的手動分割方法,這種自動化的方法大大提高了模型生成的效率和規模,有助於推動虛擬醫學影像試驗的發展。
他の言語に翻訳
原文コンテンツから
arxiv.org
深掘り質問