核心概念
本文提出了基於通達時間的圖神經網絡(Commute Graph Neural Networks, CGNN)方法,能夠有效地捕捉有向圖中節點之間的相互關係。
要約
本文提出了一種新的圖神經網絡模型CGNN,能夠有效地處理有向圖數據。主要包括以下內容:
-
提出了一種新的有向圖拉普拉斯算子(DiLap),能夠更好地描述有向圖中節點之間的關係。
-
基於DiLap,提出了一種高效的計算通達時間的方法,通達時間能夠反映節點之間相互的可達性和關係強度。
-
將計算得到的通達時間信息集成到圖神經網絡的消息傳遞機制中,使得模型能夠更好地捕捉有向圖中節點之間的非對稱關係。
-
在多個有向圖數據集上進行實驗,結果表明CGNN在異質性較強的數據集上表現優秀,顯著優於現有的圖神經網絡模型。
總之,CGNN通過有效地利用有向圖中節點之間的通達時間信息,在捕捉非對稱關係方面取得了顯著的進步,為有向圖分析提供了一種新的有效方法。
統計
在Squirrel數據集上,CGNN的平均分類準確率為77.61%,而DirGNN為75.19%。
在Chameleon數據集上,CGNN的平均分類準確率為79.54%,而DirGNN為79.11%。
在Citeseer數據集上,CGNN的平均分類準確率為70.27%,而DirGNN為66.57%。
在CoraML數據集上,CGNN的平均分類準確率為77.06%,而DirGNN為75.33%。
在AM-Photo數據集上,CGNN的平均分類準確率為90.41%,而DirGNN為88.09%。
引用
"本文提出了基於通達時間的圖神經網絡(Commute Graph Neural Networks, CGNN)方法,能夠有效地捕捉有向圖中節點之間的相互關係。"
"CGNN通過有效地利用有向圖中節點之間的通達時間信息,在捕捉非對稱關係方面取得了顯著的進步,為有向圖分析提供了一種新的有效方法。"