核心概念
教師やGNNはグラフ知識蒸留に必要ないことを示す。
要約
最近の成功例を受けて、MLPが実用的な産業応用で主力として残る理由は、GNNにおけるデータ依存性による近隣取得遅延がある。従来のGKDは、大規模な教師GNNから軽量な生徒GNNまたはMLPに知識を蒸留することを目的としていた。しかし、本稿では、グラフ知識蒸留には教師やGNNが必要ないことがわかった。提案されたTGSフレームワークは、トポロジ意識型MLPを訓練中に活用し、推論時のデータ依存性から解放される。TGSはデュアル自己蒸留によりバニラMLPのパフォーマンス向上を実現し、6つの実世界データセットで最先端のGKDアルゴリズムを上回っている。
統計
TGSはバニラMLPよりも15.54%平均で改善され、6つの実世界データセットで最先端のGKDアルゴリズムよりも優れたパフォーマンスを発揮。
TGSは既存のGNNよりも75×〜89×速く推論し、古典的な推論加速方法よりも16×〜25×速く推論する。