Core Concepts
Der Quasi-Wasserstein-Verlust bietet eine neue, theoretisch fundierte Verlustfunktion zum Trainieren von Graphneuronalen Netzen, die die Abhängigkeiten zwischen Knotenbeschriftungen berücksichtigt und zu besseren Vorhersageergebnissen führt.
Abstract
In dieser Studie wird ein neuartiger Quasi-Wasserstein-Verlust (QW-Verlust) vorgestellt, um Graphneuronale Netze (GNNs) in Aufgaben der Knotenvorhersage zu trainieren.
Der QW-Verlust nutzt den optimalen Transport zwischen den beobachteten und geschätzten Knotenbeschriftungen, um die Abhängigkeiten zwischen den Knoten zu modellieren. Im Gegensatz zu herkömmlichen Verlustfunktionen, die die Knoten unabhängig behandeln, berücksichtigt der QW-Verlust die Nicht-Unabhängigkeit der Knotenbeschriftungen aufgrund der Graphstruktur.
Durch Minimierung des QW-Verlusts können GNNs gemeinsam mit dem optimalen Beschriftungstransport gelernt werden. Für die Vorhersage kombiniert das Modell dann die Ausgabe des GNNs mit dem Residualanteil des optimalen Beschriftungstransports, was zu einem neuen transduktiven Vorhersageansatz führt.
Die Experimente zeigen, dass der QW-Verlust auf verschiedene GNN-Architekturen anwendbar ist und deren Leistung in Klassifikations- und Regressionstasks verbessert. Außerdem ist der QW-Verlust effizient zu optimieren, da er auf Bregman-Divergenz-basierten Algorithmen basiert.
Stats
Der optimale Beschriftungstransport minimiert die Summe der partiellen Wasserstein-Abstände zwischen den beobachteten und geschätzten Knotenbeschriftungen.
Die Komplexität des QW-Verlusts ist linear in der Anzahl der Kanten des Graphen und der Anzahl der inneren Iterationen des Optimierungsalgorithmus.
Quotes
"Der QW-Verlust bietet eine neue, theoretisch fundierte Verlustfunktion zum Trainieren von Graphneuronalen Netzen, die die Abhängigkeiten zwischen Knotenbeschriftungen berücksichtigt und zu besseren Vorhersageergebnissen führt."
"Durch Minimierung des QW-Verlusts können GNNs gemeinsam mit dem optimalen Beschriftungstransport gelernt werden."
"Für die Vorhersage kombiniert das Modell dann die Ausgabe des GNNs mit dem Residualanteil des optimalen Beschriftungstransports, was zu einem neuen transduktiven Vorhersageansatz führt."