本論文では、グラフニューラルネットワーク(GNN)の深さが増えるにつれ、ノード間の依存関係が指数関数的に増大し、非効率的になる問題を解決するため、新しい手法「Stacked Graph Neural Networks (SGNN)」を提案している。
SGNNでは、複雑なGNNを複数の単純なGNNモジュールに分離し、それらを同時に訓練する。各モジュールは独立して効率的に訓練できるため、ノードのサンプリングや近似グラフの生成などの手法を必要としない。
具体的には、SGNNは2つの訓練ステップから成る。まず、順方向訓練(Forward Training)では、各モジュールを独立して訓練する。次に、逆方向訓練(Backward Training)では、後段のモジュールから前段のモジュールに情報を伝播させることで、全体の性能を向上させる。
理論的な分析では、線形モジュールを用いた場合、無監督タスクでは誤差が蓄積しないことを示している。
実験では、ノードクラスタリングとノード分類のタスクで、SGNNが効率的かつ良好な性能を示すことを確認している。特に大規模なRedditデータセットでは、従来手法を大きく上回る結果を得ている。
To Another Language
from source content
arxiv.org
Viktige innsikter hentet fra
by Hongyuan Zha... klokken arxiv.org 04-23-2024
https://arxiv.org/pdf/2304.10126.pdfDypere Spørsmål