最近の成功例を受けて、MLPが実用的な産業応用で主力として残る理由は、GNNにおけるデータ依存性による近隣取得遅延がある。従来のGKDは、大規模な教師GNNから軽量な生徒GNNまたはMLPに知識を蒸留することを目的としていた。しかし、本稿では、グラフ知識蒸留には教師やGNNが必要ないことがわかった。提案されたTGSフレームワークは、トポロジ意識型MLPを訓練中に活用し、推論時のデータ依存性から解放される。TGSはデュアル自己蒸留によりバニラMLPのパフォーマンス向上を実現し、6つの実世界データセットで最先端のGKDアルゴリズムを上回っている。
翻譯成其他語言
從原文內容
arxiv.org
深入探究