核心概念
本文提出了一種名為異構分割聯邦學習(HSFL)的新型平行分割學習框架,該框架允許資源受限的設備自適應地分割模型,並與伺服器協作進行訓練,同時通過優化資源分配來最大程度地減少訓練延遲。
本研究旨在解決分割學習(SL)在資源受限的異構邊緣設備上訓練效率和延遲問題,提出了一種新的異構分割聯邦學習(HSFL)框架,並設計了相應的資源優化演算法。
HSFL 框架設計:
允許客戶端根據自身資源限制選擇不同的切割層,將模型分割成客戶端模型和伺服器端模型。
採用同步聚合機制,通過伺服器之間特定層信息的交換,實現不同切割層異構模型的有效訓練。
系統延遲模型:
建立了考慮計算、傳輸和同步聚合延遲的系統延遲模型,以評估訓練效率。
資源優化問題:
將最小化總訓練延遲的問題公式化,將其分解為長期和短期子問題。
提出基於樣本平均逼近(SAA)的遺傳演算法(GA)選擇客戶端的最佳切割層。
採用分支定界(B&B)演算法有效地分配計算和傳輸資源。