"Each model eventually outputs the same prediction probabilities on all graphs."
"Our results apply to a broad class of graph learning architectures with different aggregate and update functions."
"The only classifiers which can be uniformly expressed by these architectures are those which are asymptotically constant."
GNNアーキテクチャ全体で見られるこの種の収束現象は他の機械学習手法や分野でも観察され得ます。例えば、「Weisfeiler-Leman test」と呼ばれる有名なグラフ識別能力試験ではMPNNs(メッセージパッシングニューラルネットワーク)と同等以上の表現力を持つことが示されています。「Zero-one laws for sparse random graphs」という先行研究では希少エルドシュ-レニィランダムグラフ向けにゼロ・ワン則(あっても良し・無し則)が提案されています。そのため、異なる領域や問題設定でも同様の局所極限定理や漸近挙動法則が成立しており得ます。
0
Visualize This Page
Generate with Undetectable AI
Translate to Another Language
Scholar Search
Table of Content
Graph Neural Network Outputs Converge to Asymptotically Constant Functions on Random Graphs
Graph neural network outputs are almost surely asymptotically constant