Concetti Chiave
動的DNNモデルを活用し、多層ネットワーク上で推論処理を分散実行することで、エネルギー消費を最小化する。
Sintesi
本論文では、動的DNNモデルを活用し、モバイル-エッジ-クラウドシステムにおける推論処理の分散実行を最適化する手法を提案する。
- 動的DNNモデルは、中間層に早期出口(early exit)を持つ多分岐アーキテクチャを採用し、入力サンプルに応じて動的に推論の深さを制御できる。
- 提案手法は、DNNモデルの各ブロックを最適に分割し、ネットワークノード間に割り当てることで、エネルギー消費を最小化する。
- 制約条件として、推論精度、レイテンシ、ネットワークリソース、計算リソースを考慮する。
- 提案手法は、グラフ最適化アプローチに基づき、実行可能な解のみを含むFeasible Inference Graph (FIN)を構築し、最小コストパスを見つける。
- 実験結果より、提案手法FINは、最適解に迫る性能を示し、従来手法に比べ65%以上のエネルギー消費削減を実現できることを確認した。
Statistiche
提案手法FINは、従来手法に比べ、B-AlexNetで最大87.6%、B-ResNetで最大28%のエネルギー消費削減を実現した。
FINの実行時間は、従来手法の2.5倍以内に抑えられた。
Citazioni
"動的DNNモデルを活用し、多層ネットワーク上で推論処理を分散実行することで、エネルギー消費を最小化する。"
"提案手法FINは、最適解に迫る性能を示し、従来手法に比べ65%以上のエネルギー消費削減を実現できる。"