Core Concepts
グラフニューラルネットワークの新しい学習パラダイムを提案する。
Abstract
グラフニューラルネットワーク(GNN)の学習において、従来の損失関数は各ノードを独立して扱っていたが、提案されたQuasi-Wasserstein(QW)損失は最適輸送を用いて非i.i.d.なラベル間の一貫性を実現する。
QW損失は、観測された多次元ノードラベルとその推定値との間で最適輸送を考慮し、グラフエッジ上で定義される。
実験結果は、QW損失がさまざまなGNNに適用可能であり、ノードレベル分類および回帰タスクの性能向上に役立つことを示している。
Stats
著者らは提案手法が従来手法よりも性能向上をもたらすことを示す実験結果を提供しています。
Quotes
"A Quasi-Wasserstein (QW) loss with the help of the optimal transport defined on graphs."
"The proposed QW loss applies to various GNNs and helps to improve their performance."