本研究は、6Gネットワークにおける無線リソース割当ての課題に取り組んでいる。従来の深層強化学習(DRL)アプローチでは、不透明な決定プロセスが問題となっていた。そこで本研究では、TANGOと呼ばれるGRLフレームワークを提案している。
TANGOは、ベイズ型グラフニューラルネットワーク(GNN)エクスプレイナーとリーズナーから成るシンボリックサブシステムを備えている。エクスプレイナーは、ノードやエッジの重要性と不確実性を定量化し、リーズナーはこれらの情報に基づいて報酬関数を調整する。これにより、GRLエージェントの決定プロセスが説明可能となり、信頼性が向上する。
実際の5Gスタンドアロンテストベッドを用いた実験では、TANGOが物理リソースブロック(PRB)の最適割当てにおいて96.39%の高精度を達成し、従来手法を1.22倍上回る性能を示した。また、収束速度の向上や、エネルギー消費、ロバスト性、スケーラビリティ、説明可能性の観点でも優れた結果が得られている。
他の言語に翻訳
原文コンテンツから
arxiv.org
深掘り質問