Core Concepts
Das Training von Graph Contrastive Learning (GCL) ist unausgeglichen, und das vorgeschlagene PrOvable Training (POT) verbessert die Node-Kompaktheit und die Leistung von GCL-Methoden.
Abstract
Abstract:
GCL als beliebter Ansatz für das Lernen von Knoteneinbettungen aus erweiterten Graphen ohne Labels.
Problem der unausgeglichenen Schulung von GCL aufgrund der komplexen Graphstruktur.
Einführung von "Node Compactness" als Metrik zur Verbesserung des Trainings von GCL.
PrOvable Training (POT) verbessert die bestehenden GCL-Ansätze.
Einführung:
Graph Neural Networks (GNNs) erfolgreich in vielen Anwendungen.
GCL als selbstüberwachter Lernansatz für Graphen.
GCL-Prinzip zur Maximierung der Ähnlichkeit zwischen positiven Knotenpaaren.
Die unausgeglichene Schulung von GCL: eine experimentelle Studie:
Experiment zur Verteilung der InfoNCE-Verlustwerte der Knoten.
Feststellung einer unausgeglichenen Schulung von GCL.
Notwendigkeit, die Eigenschaften verschiedener Knoten zu unterscheiden.
Methodik:
Definition von "Node Compactness" zur Messung des GCL-Prinzips.
PrOvable Training (POT) zur Verbesserung der GCL-Schulung.
Ableitung der unteren Grenzen theoretisch durch Bound Propagation.
Experimente:
Verbesserung der Node-Kompaktheit durch POT auf verschiedenen Benchmarks.
Visualisierung der Node-Kompaktheit im Trainingsprozess.
Analyse der Hyperparameter-Sensitivität von POT.
Stats
Die Schulung von GCL ist unausgeglichen, da die durchschnittlichen InfoNCE-Verlustwerte der Knoten eine hohe Varianz aufweisen.
Die Node-Kompaktheit wird als Metrik zur Verbesserung des Trainings von GCL vorgeschlagen.
Quotes
"POT verbessert die Node-Kompaktheit und die Leistung von GCL-Methoden."
"Die Node-Kompaktheit spiegelt verschiedene Eigenschaften unterschiedlicher Augmentierungsstrategien wider."