In dieser Studie wird ein neuartiger Quasi-Wasserstein-Verlust (QW-Verlust) vorgestellt, um Graphneuronale Netze (GNNs) in Aufgaben der Knotenvorhersage zu trainieren.
Der QW-Verlust nutzt den optimalen Transport zwischen den beobachteten und geschätzten Knotenbeschriftungen, um die Abhängigkeiten zwischen den Knoten zu modellieren. Im Gegensatz zu herkömmlichen Verlustfunktionen, die die Knoten unabhängig behandeln, berücksichtigt der QW-Verlust die Nicht-Unabhängigkeit der Knotenbeschriftungen aufgrund der Graphstruktur.
Durch Minimierung des QW-Verlusts können GNNs gemeinsam mit dem optimalen Beschriftungstransport gelernt werden. Für die Vorhersage kombiniert das Modell dann die Ausgabe des GNNs mit dem Residualanteil des optimalen Beschriftungstransports, was zu einem neuen transduktiven Vorhersageansatz führt.
Die Experimente zeigen, dass der QW-Verlust auf verschiedene GNN-Architekturen anwendbar ist und deren Leistung in Klassifikations- und Regressionstasks verbessert. Außerdem ist der QW-Verlust effizient zu optimieren, da er auf Bregman-Divergenz-basierten Algorithmen basiert.
Egy másik nyelvre
a forrásanyagból
arxiv.org
Mélyebb kérdések