核心概念
グラフ変換器の注意メカニズムは、有用な近傍ノードよりも遠隔ノードに過度に注目してしまう問題が存在する。
要約
本論文では、グラフ変換器における過度のグローバル化問題を明らかにしている。
まず、経験的な証拠と理論的な分析を提示し、グラフ変換器の注意メカニズムが遠隔ノードに過度に注目してしまい、実際に有用な近傍ノードの情報が相対的に弱まってしまうことを示した。
次に、この問題を解決するため、クラスター内部と クラスター間の情報を分離する「Bi-Level Global Attention」モジュールと、GCNとの協調学習を提案したCoBFormerを紹介した。理論的な分析により、提案手法は一般化性能を向上させることが示された。
実験結果から、CoBFormerが過度のグローバル化問題を効果的に解決し、ホモフィリックグラフとヘテロフィリックグラフの両方で優れた性能を発揮することが確認された。
統計
近傍ノードの情報が有用であるにもかかわらず、グラフ変換器は遠隔ノードに過度に注目してしまう。
CoBFormerは、クラスター内部と クラスター間の情報を分離することで、過度のグローバル化問題を効果的に解決できる。
CoBFormerの協調学習は、モデルの一般化性能を理論的に保証する。
引用
"Does the globalizing property always benefit Graph Transformers?"
"We reveal the over-globalizing problem in Graph Transformers by presenting both empirical evidence and theoretical analysis."
"Our proposed collaborative training will improve the model's generalization ability with a theoretical guarantee."