核心概念
大規模グラフの表現学習において、従来のアテンション機構に依存せず、標準的な畳み込みメッセージパッシングをPre-LN Transformerスタイルのブロックに統合したSMPNNは、計算効率とメモリの両面で優位性を持ちながら、最先端のグラフTransformerを超える性能を発揮する。
要約
スケーラブルなメッセージパッシングニューラルネットワーク:大規模グラフ表現学習におけるアテンションは不要?
この研究論文は、大規模グラフの表現学習において、アテンション機構を用いずに高い性能を実現する新しいニューラルネットワークアーキテクチャ、SMPNN (Scalable Message Passing Neural Networks) を提案しています。
本研究の目的は、大規模グラフデータセットにおいて、計算コストの高いアテンション機構を用いることなく、高性能なグラフニューラルネットワーク(GNN)を開発することです。
従来のGNNアーキテクチャでは、メッセージパッシング層を単純に積み重ねる構造が一般的でしたが、本研究では、自然言語処理の分野で成功を収めているTransformerブロックに着想を得て、標準的な畳み込みメッセージパッシングをPre-LN Transformerスタイルのブロックに統合したSMPNNを提案しています。
SMPNNは、各ブロック内で、Layer Normalization、グラフ畳み込み層、Pointwise Feedforwardネットワークを順に適用する構造になっています。
グラフ畳み込み層では、各ノードが隣接ノードとのみ情報を交換するため、計算量がノード数の線形オーダーに抑えられ、大規模グラフへの適用が可能になります。