本論文では、グラフ変換器における過度のグローバル化問題を明らかにしている。
まず、経験的な証拠と理論的な分析を提示し、グラフ変換器の注意メカニズムが遠隔ノードに過度に注目してしまい、実際に有用な近傍ノードの情報が相対的に弱まってしまうことを示した。
次に、この問題を解決するため、クラスター内部と クラスター間の情報を分離する「Bi-Level Global Attention」モジュールと、GCNとの協調学習を提案したCoBFormerを紹介した。理論的な分析により、提案手法は一般化性能を向上させることが示された。
実験結果から、CoBFormerが過度のグローバル化問題を効果的に解決し、ホモフィリックグラフとヘテロフィリックグラフの両方で優れた性能を発揮することが確認された。
לשפה אחרת
מתוכן המקור
arxiv.org
תובנות מפתח מזוקקות מ:
by Yujie Xing,X... ב- arxiv.org 05-03-2024
https://arxiv.org/pdf/2405.01102.pdfשאלות מעמיקות