本論文では、分散型マルチエージェント学習(DML)システムにおいて、エージェントの計算・通信能力の違いによる学習時間のばらつきを解消するためのワークロード・バランシングアプローチ「ComDML」を提案している。
ComDMLの主な特徴は以下の通りである:
局所損失に基づくモデル分割トレーニングを採用し、通信オーバーヘッドを最小化する。遅いエージェントは自身のモデルの一部を高速エージェントに offload することで、全体の学習時間を短縮する。
エージェントの計算・通信能力を考慮した最適なワークロード・バランシングを実現するため、整数計画問題を解く。
動的な分散ペアリングスケジューラを導入し、ヘテロな環境下でも効率的にエージェントをペアリングする。
収束性の理論的な保証を示し、実験的にも CIFAR-10、CIFAR-100、CINIC-10データセットにおいて、大規模モデル(ResNet-56、ResNet-110)の学習時間を最大71%削減できることを実証した。
プライバシー保護手法との統合も可能であり、モデル精度への影響を最小限に抑えられることを示した。
以上のように、ComDMLは分散型マルチエージェント学習システムにおいて、ワークロードのバランシングを通じて学習時間の大幅な短縮を実現する効率的なアプローチである。
他の言語に翻訳
原文コンテンツから
arxiv.org
深掘り質問