Core Concepts
グラフ基盤モデルの自己教師付き事前学習タスクを包括的に調査し、知識ベースの視点から分析する。
Abstract
グラフ自己教師付き学習は、グラフニューラルネットワーク、グラフトランスフォーマー、最近の大規模言語モデル(LLM)ベースのグラフモデルなど、グラフ基盤モデルの事前学習方法として主流となっている。
自己教師付き事前学習タスクは、9つの知識カテゴリと25の事前学習タスクをカバーし、様々な下流タスク適応戦略も含まれている。
ノード特徴量やリンク予測など微視的知識から、長距離類似性やクラスタリングなどマクロ的知識まで包括的に取り上げられている。
微視的プレテキスト
ノード特徴量予測やインスタンス識別などが取り上げられており、これらは深層意味合意を重視した一般化可能性がある。
リンクプレテキスト
リンク予測やリンク除去などが紹介されており、構造情報に焦点を当てた一般化不足が指摘されている。
コンテキストプレテキスト
近傍情報やコンテキスト判別が取り上げられており、局所構造情報抽出に対する強調が提案されている。
長距離類似性プレテキスト
類似性予測やパス除去が述べられており、非隣接ノード間の依存関係を考慮したアプローチが必要とされている。
クラスタリングプレテキスト
ノードクラスタリングやグラフ分割に焦点を当てた手法が紹介されており、構造パターン抽出に対する探求が示唆されている。
Stats
GraphSAGE [Hamilton et al., 2017]は非パラメータ化ディスクリミネーターを使用して近傍インスタンス間でJS推定値を最適化します。
GAE [Kipf and Welling, 2016]はエッジ存在確率を計算しバイナリ交差エントロピー損失を最適化します。
Quotes
"Graph self-supervised learning aims to solve the task generalization problem, that is, to learn a set of optimized parameters Θ∗ for a graph model by one or more pretexts."
"Instance discrimination methods share a similar workflow: they start with one or two perturbed versions of an original graph Gi, Gii, referred to as “views”, through one or more graph augmentation schemes."