Kernekoncepter
Graph neural network outputs converge to asymptotically constant functions on random graphs, limiting their expressive power.
Resumé
グラフニューラルネットワーク(GNN)の出力は、ランダムグラフ上で漸近的に一定の関数に収束し、その表現力を制限することが示された。この収束現象は、多くの一般的なGNNアーキテクチャに適用される。
Statistik
我々は結果を実証し、比較的控えめなサイズのグラフでもこの収束現象が既に現れることを観察した。
モデルの出力は、入力グラフのサイズが増加するにつれて独立していくことが示された。
さまざまな確率分布から抽出されたグラフ上で、確率分類器がすべて同じ値を出力するように収束することが示された。
GNNアーキテクチャやグラフ分布によって、収束速度や安定性に違いがあることが観察された。
注意機構を持つモデルは、MEANGNNよりも収束が遅れる傾向があり、標準偏差も大きい傾向があった。
Citater
"Each model eventually outputs the same prediction probabilities on all graphs."
"Our results apply to a broad class of graph learning architectures with different aggregate and update functions."
"The only classifiers which can be uniformly expressed by these architectures are those which are asymptotically constant."