最近の成功例を受けて、MLPが実用的な産業応用で主力として残る理由は、GNNにおけるデータ依存性による近隣取得遅延がある。従来のGKDは、大規模な教師GNNから軽量な生徒GNNまたはMLPに知識を蒸留することを目的としていた。しかし、本稿では、グラフ知識蒸留には教師やGNNが必要ないことがわかった。提案されたTGSフレームワークは、トポロジ意識型MLPを訓練中に活用し、推論時のデータ依存性から解放される。TGSはデュアル自己蒸留によりバニラMLPのパフォーマンス向上を実現し、6つの実世界データセットで最先端のGKDアルゴリズムを上回っている。
Naar een andere taal
vanuit de broninhoud
arxiv.org
Belangrijkste Inzichten Gedestilleerd Uit
by Lirong Wu,Ha... om arxiv.org 03-07-2024
https://arxiv.org/pdf/2403.03483.pdfDiepere vragen