本研究提出了一種名為SurgPointTransformer的方法,用於從RGB-D資料中重建脊椎骨的三維形狀。該方法包括以下步驟:
脊柱定位:使用YOLOv8網絡在彩色圖像中檢測脊柱區域,生成包圍盒。
脊柱分割:使用Segment Anything Model(SAM)對脊柱區域進行分割,生成脊柱點雲。
椎骨分割:使用PointNet++網絡將脊柱點雲分割為個別椎骨。
形狀重建:將分割的椎骨點雲輸入到SurgPointTransformer網絡中,利用注意力機制學習可見表面特徵與隱藏解剖結構之間的模式,從而重建完整的椎骨形狀。
在評估中,SurgPointTransformer顯著優於現有的基準方法,平均Chamfer Distance為5.39,F-Score為0.85,Earth Mover's Distance為0.011,信噪比為22.90 dB。這表明該方法能夠準確重建脊椎骨的三維形狀,而無需使用輻射性成像技術。
本研究為計算機輔助和機器人輔助手術的感知和智能提供了貢獻,有望在不使用輻射的情況下提供實時的三維脊柱解剖重建。未來的工作將集中在將該方法集成到手術導航系統中,並在臨床環境中進行驗證。
翻譯成其他語言
從原文內容
arxiv.org
深入探究