核心概念
本研究重新處理並優化了Camelyon數據集,構建了一個更精確、全面的乳癌淋巴結轉移檢測基準Camelyon+,並利用其評估了多種深度學習方法,為計算病理學領域的AI發展提供了新的基準和參考。
要約
研究背景
計算病理學(CPath)發展迅速,基於AI的診斷支持系統日益重要。近年來,基於大規模數據預先訓練的病理學基礎模型備受關注,這些模型在病理圖像特徵提取方面表現出色。然而,獲取精細標註的大規模病理圖像數據集仍然具有挑戰性,這限制了計算病理學中基礎模型和下游任務的發展。
Camelyon 數據集的問題
Camelyon系列數據集是公開的病理學數據集,專注於檢測乳癌淋巴結轉移,被廣泛用於評估多實例學習(MIL)方法。然而,Camelyon數據集存在一些問題,例如圖像質量不佳、標籤錯誤以及缺乏像素級標註等,這些問題阻礙了深度學習方法在下游病理任務中的準確評估。
Camelyon+ 數據集的構建
為了克服Camelyon數據集的局限性,本研究對其進行了重新處理和優化,構建了一個名為Camelyon+的新數據集。具體而言,研究人員排除了模糊、染色質量差、難以區分陽性病灶以及存在治療相關偽影的WSIs,並將Camelyon-161中的二元分類標籤擴展為四類系統,以便與Camelyon-172數據集合併。此外,研究人員還校正了Camelyon數據集中的像素級標註,並為之前缺乏像素級標註的陽性幻燈片添加了標註。
基於Camelyon+數據集的基準實驗
利用Camelyon+數據集,本研究重新評估了12種主流的MIL方法,包括ABMIL、TransMIL和ClAM等,並使用了兩種自然圖像預先訓練的特徵提取器(ResNet-50和VIT-S)以及四種特定於病理學的預先訓練特徵提取器(PILP、CONCH、UNI和Gigapath)。實驗結果表明,病理學預先訓練的特徵提取器顯著提高了MIL的性能。值得注意的是,使用圖像-文本對比學習的CONCH模型的性能可與使用更大訓練數據集的UNI和Gigapath模型相媲美,這表明圖像-文本對比預訓練在病理學領域可能比純視覺預訓練具有更大的潛力。
研究結果和結論
本研究構建的Camelyon+數據集為計算病理學領域的AI發展提供了新的基準和參考。實驗結果表明,數據集的質量對模型的性能有顯著影響,而病理學預先訓練的模型在淋巴結轉移檢測任務中表現更佳。此外,研究還發現,MIL方法在處理像Camelyon+這樣由轉移區域大小而非癌細胞亞型定義類別的臨床分類任務時可能存在局限性。
統計
Camelyon-16 數據集包含 399 個 WSIs,訓練集 270 個,測試集 129 個。
Camelyon-17 數據集包含 1000 個 WSIs,訓練集和測試集各 500 個。
Camelyon+ 數據集包含 1,350 個 WSIs,其中陰性 871 個,微轉移 174 個,宏轉移 251 個,ITC 54 個。
研究排除了 49 個質量不佳的 WSIs。
在 Camelyon-17 數據集上,數據清洗後,大多數 MIL 模型的 AUC 和 F1-score 都得到了提高。
在 Camelyon+ 數據集上,使用病理圖像預訓練的特徵提取器顯著提高了 MIL 模型的性能。
CONCH 模型的性能與使用更大訓練數據集的 UNI 和 Gigapath 模型相當。
引用
"Acquiring finely annotated large-scale pathology image datasets remains challenging due to the extremely high resolution of pathology images and the specialized expertise required for annotations."
"These pathology-pre-trained models have demonstrated superior performance in downstream tasks including tumor classification, survival analysis, and lesion segmentation."
"This imbalance classifies the dataset as having a moderately long-tailed distribution. Such imbalance highlights a key challenge in pathology image analysis: how to achieve balanced model performance on long-tailed datasets like Camelyon+..."