Основні поняття
SelfFed 框架利用自我監督學習和聯邦學習來解決物聯網醫療圖像中數據異質性和標籤稀缺性的問題,並通過實驗證明其在有限標籤數據和非獨立同分布數據集上的有效性。
研究目標:
本研究旨在解決物聯網醫療圖像分析中數據異質性和標籤稀缺性帶來的挑戰,提出了一種名為 SelfFed 的新型自我監督聯邦學習框架。
方法:
SelfFed 框架分為兩個階段:自我監督預訓練和微調階段。
在預訓練階段,SelfFed 利用 MAE(Masked Autoencoders)進行增強式建模,以分散的方式從客戶端未標記的數據中學習表徵知識。具體來說,SelfFed 使用 Swin Transformer 編碼器提取圖像特徵,並通過重建被遮蔽的圖像塊來學習有效的表徵。
在微調階段,SelfFed 透過將預訓練階段學習到的表徵知識遷移到目標任務中來微調聯邦模型。客戶端使用預訓練的編碼器和一個線性分類器,利用有限的標記數據進行監督訓練。伺服器端則使用對比網路和一種新穎的聚合策略來更新模型參數。
主要發現:
SelfFed 在公開的醫學影像數據集(COVID-FL 和 Retina)上進行了評估,結果表明,與現有的聯邦學習方法和 ImageNet 預訓練的監督學習方法相比,SelfFed 具有更好的性能。
在非獨立同分布數據集上,SelfFed 在 Retina 和 COVID-FL 數據集上分別實現了 8.8% 和 4.1% 的最大性能提升。
即使在僅使用 10% 的標記實例進行訓練的情況下,SelfFed 的性能仍然優於現有的基準方法。
主要結論:
SelfFed 框架能夠有效解決物聯網醫療圖像分析中數據異質性和標籤稀缺性的問題。
SelfFed 中使用的 Swin Transformer 編碼器、新穎的聚合機制和對比網路都有助於提高模型的性能。
研究意義:
本研究為物聯網醫療圖像分析提供了一種實用的解決方案,特別是在標記數據稀缺且數據分佈不均勻的情況下。
局限性和未來研究方向:
未來可以進一步研究 SelfFed 在其他醫學影像任務上的性能,例如圖像分割和目標檢測。
可以探索更先進的自我監督學習技術和聯邦學習聚合策略,以進一步提高 SelfFed 的性能。
Статистика
SelfFed 在 Retina 和 COVID-FL 數據集上分別實現了 8.8% 和 4.1% 的最大性能提升。
即使在僅使用 10% 的標記實例進行訓練的情況下,SelfFed 的性能仍然優於現有的基準方法。