本論文では、デバイス間でAIモデルをトレーニングするために協力する方法として、分割学習(SL)が有望なアプローチであることが強調されています。しかし、デバイスの異質性やチャネル条件の変動により、固定された分割ポイントでは最適ではない場合があります。そこで、ASLスキームが提案されました。このスキームは、デバイス用に分割ポイントを動的に選択し、エッジサーバー用に計算リソースを割り当てることで、平均トレーニング遅延を減少させます。オンラインアルゴリズム「OPEN」はLyapunov理論を活用して問題を解決し、MIP問題を新しい問題に分解します。シミュレーション結果では、ASLスキームが既存のSLスキームと比較して平均トレーニング遅延を53.7%、エネルギー消費量を22.1%削減できることが示されています。
In un'altra lingua
dal contenuto originale
arxiv.org
Approfondimenti chiave tratti da
by Zuguang Li,W... alle arxiv.org 03-11-2024
https://arxiv.org/pdf/2403.05158.pdfDomande più approfondite