Alapfogalmak
此研究提出了一種創新的放射學報告生成方法,通過結合解剖學區域檢測器和多標籤病灶檢測器,生成病理感知區域提示,有效地將解剖和病理信息整合到報告生成過程中,顯著提高了生成報告的準確性和臨床相關性。
本研究提出了一種基於解剖學引導與病理感知區域提示的放射學報告自動生成方法,旨在解決現有方法在臨床準確性方面的不足。該方法模擬放射科醫師的診斷流程,通過解剖學區域檢測器提取不同解剖區域的特徵,並結合多標籤病灶檢測器識別全局病灶,生成病理感知區域提示,引導報告解碼器生成更精確、臨床相關性更高的報告。實驗結果表明,該模型在多項自然語言生成和臨床指標上均優於現有方法,並獲得了臨床專家評估的肯定。
研究背景
放射學報告生成是減輕臨床工作量、提高醫療效率的重要手段。然而,現有方法由於依賴固定大小的圖像特徵提取和缺乏病理信息的整合,導致生成的報告臨床準確性不足。
方法
本研究提出的方法包含以下步驟:
解剖學區域檢測: 使用 Faster R-CNN 模型識別和提取 29 個不同解剖區域的解剖級視覺特徵。
多標籤病灶檢測: 使用改進的 YOLOv5x 模型識別全局病灶,並將多個病灶分配到單個邊界框中。
病理感知區域提示生成: 根據空間位置將檢測到的病灶與解剖區域相關聯,生成包含區域特定病理信息的提示。
報告生成: 使用 BERT 模型作為解碼器,結合解剖級視覺特徵和病理感知區域提示生成診斷報告。
實驗結果
在 MIMIC-CXR-JPG 和 Chest ImaGenome 數據集上進行的實驗表明,該模型在多項自然語言生成指標(BLEU、METEOR、ROUGE-L)和臨床指標(精確率、召回率、F1 分數)上均優於現有方法。此外,臨床專家評估也證實了該模型生成的報告在簡潔性、準確性和安全性方面的優勢。