Core Concepts
従来のグラフ対照的学習方法は、原稿に含まれる因果情報を無視する可能性があり、不変表現を学ぶことができない。提案されたGCILは、因果視点から新しいGCL手法を導入し、ベストパフォーマンスを達成する。
Abstract
この論文では、グラフ対照的学習を因果関係の観点から探究し、従来の方法が原稿に含まれる因果情報を捨てる可能性があることが明らかになりました。GCILは、スペクトルグラフ拡張を通じて非因果要素に介入することをシミュレートし、不変表現を学ぶようモデルに奨励します。実験結果は、提案されたGCILが4つのノード分類データセットで他の手法よりも優れたパフォーマンスを達成していることを示しています。
Stats
GCN (Kipf and Welling 2017): 80.6±0.7, 81.5±0.6, 68.1±0.5, 70.9±0.5, 78.5±0.3, 78.9±0.3, 73.2±0.8, 77.5±0.4, 48.9±1.6, 50.2±1.2
GAT (Velickovic et al. 2018): 81.3±0.3, 82.3±0.2, 67.5±0.2, 72.0±0.9, 77.4±0.,2 ,77 .8 ± .2 ,75 .5 ± .4 ,78 .3 ± .4 ,35 .0 ± .8 ,37 .1 ± .3
DGI (Velickovic et al.,2019):80.4 ±0.7,82.0 ±0.5,67.7 ±0.9,71.7 ±0.8,76.8 ±0.9,76.7 ±0.9,70.6 ±0.1,75.6 ±0.1,31.2 ±16,33.0 ±16
MVGRL (Hassani and Khasahmadi2020):81·5+05·82·8+04·66·8+07·72·5+05·79·8+04·79·7+03·74·9+01 ·78 ·1 +01 ·31 ·2 +02 ·33 ·4 +03
GRACE (Zhu et al.,202O):79・2+10・80・O+l・65・l+l・68・7+l・80・O+07・79・9+07 ・74 ・8 +02 ・78 ・2 +01 ・35 ・7 +01
GCA (Zhu et al.,2021):79•9•11•81•1•10•62•8•13•65•9 •80 •8 •06 •81 •4 •06 •74 •9 •00 •78 •3 •00
GraphCL:80•7•09•82•3•09•67•8+l71'91'09'77'O'l'04'76'O'l'32'l'l'l34'SS'SS'SS'SS'SS'SS'SS'SS'SS'
CCA-SSG:82.•90.•83.•60.•73.•10.•80.•70.•81.•60.
COSTA:81.+04.+82.+07.+62.+36.+66.+43.+64.+25.
ProGCL:81.+04.+19.+06.+29.+09,+65,+59,+59,+53,
Ours:83+.05+.84+.07+.69+.14+.73+.17+.86+.40+
Quotes
"Generically, the question we want to ask is: does GCL always possess the invariant representation ability in practice?"
"The invariant representation usually represents the essential information."
"Our contributions are summarized as follows."