In dieser Studie wird ein neuartiger Quasi-Wasserstein-Verlust (QW-Verlust) vorgestellt, um Graphneuronale Netze (GNNs) in Aufgaben der Knotenvorhersage zu trainieren.
Der QW-Verlust nutzt den optimalen Transport zwischen den beobachteten und geschätzten Knotenbeschriftungen, um die Abhängigkeiten zwischen den Knoten zu modellieren. Im Gegensatz zu herkömmlichen Verlustfunktionen, die die Knoten unabhängig behandeln, berücksichtigt der QW-Verlust die Nicht-Unabhängigkeit der Knotenbeschriftungen aufgrund der Graphstruktur.
Durch Minimierung des QW-Verlusts können GNNs gemeinsam mit dem optimalen Beschriftungstransport gelernt werden. Für die Vorhersage kombiniert das Modell dann die Ausgabe des GNNs mit dem Residualanteil des optimalen Beschriftungstransports, was zu einem neuen transduktiven Vorhersageansatz führt.
Die Experimente zeigen, dass der QW-Verlust auf verschiedene GNN-Architekturen anwendbar ist und deren Leistung in Klassifikations- und Regressionstasks verbessert. Außerdem ist der QW-Verlust effizient zu optimieren, da er auf Bregman-Divergenz-basierten Algorithmen basiert.
Ke Bahasa Lain
dari konten sumber
arxiv.org
Wawasan Utama Disaring Dari
by Minjie Cheng... pada arxiv.org 03-14-2024
https://arxiv.org/pdf/2310.11762.pdfPertanyaan yang Lebih Dalam