核心概念
仮想化RANプラットフォームのエネルギー消費を最小化するために、ラストレベルキャッシュメモリリソースを仮想ベースステーションに戦略的に割り当てる。
摘要
本論文では、仮想化RANプラットフォームのエネルギー消費を最小化するための新しいアプローチ「MemorAI」を提案する。
まず、実験的な仮想化RAN環境で、キャッシュメモリ分離メカニズムがCPU使用量とエネルギー消費に与える影響を分析した。その結果、ラストレベルキャッシュ(LLC)の戦略的な割り当てが重要であることが分かった。
そこで、MemorAIは以下の2つの要素から構成される:
- 個々の仮想ベースステーションのデジタルツイン - 実際のシステムを模擬し、オフラインで最適なLLC割り当てを見つける
- ニューラルネットワークによる分類器 - 仮想ベースステーションの状況に応じて最適なLLC割り当てを予測する
この2つの要素を組み合わせることで、MemorAIは実際のシステムを劣化させることなく、ほぼ最適なLLC割り当てを行うことができる。評価の結果、MemorAIは従来の手法と比べて大幅なエネルギー消費の削減を実現できることが示された。
統計資料
1つの仮想ベースステーションインスタンスを5つ展開すると、CPUコア使用量が理想的な場合と比べて50%増加する
1つの仮想ベースステーションインスタンスを5つ展開すると、命令あたりのキャッシュミスが6倍増加する
高SNR条件では、仮想ベースステーションの計算負荷を大幅に削減できるLLCキャッシュ容量が必要
引述
"仮想化によってもたらされる柔軟性とコスト効率性にもかかわらず、同じコンピューティングプラットフォームを共有する仮想ベースステーションは、共有キャッシュメモリリソースの極端な消費により、大幅な計算オーバーヘッドを被る。"
"LLCキャッシュリソースには、トラフィック需要やSNRに応じて異なるユーティリティがある。したがって、仮想ベースステーションの状況に応じてLLCキャッシュを戦略的に割り当てることが、エネルギー消費を最小化するために重要である。"