本研究は、グラフニューラルネットワーク(GNN)のアンサンブル学習に取り組んでいる。GNNは半教師あり学習の文脈で有効であるが、単一のGNNモデルでは性能が限られる。一方、GNNモデルを単純に組み合わせるだけでは、推論効率が低下する問題がある。
そこで本研究では、E2GNNと呼ばれる新しい枠組みを提案している。E2GNNは、複数のGNNモデルの知識を効率的に蒸留し、ラベル付きおよびラベル無しのノードの情報を活用することで、高速な推論を実現しつつ、アンサンブル学習の利点を維持する。具体的には、以下の2つの主要な特徴がある:
強化学習ベースの選択的蒸留: ノード単位で最適なGNNモデルを選択し、誤って予測されたノードを除外することで、効果的な知識蒸留を実現する。
効率的な学生モデル: 複雑なGNNモデルを単純なMLPに圧縮することで、高速な推論を可能にする。
実験では、8つのベンチマークデータセットにおいて、提案手法E2GNNが既存の手法を大きく上回る性能を示すことを確認した。さらに、特徴量マスキングや辺の摂動といった攪乱に対しても、E2GNNが頑健であることが示された。
Naar een andere taal
vanuit de broninhoud
arxiv.org
Belangrijkste Inzichten Gedestilleerd Uit
by Xin Zhang,Da... om arxiv.org 05-07-2024
https://arxiv.org/pdf/2405.03401.pdfDiepere vragen