Die Einbindung von Graphspektrumdaten in die Architektur von Graph-Transformers kann deren Ausdruckskraft und Leistung deutlich verbessern, insbesondere bei großen Graphen mit komplexen Strukturen.
Die Kernaussage dieses Artikels ist, dass die Autoren eine neuartige Strategie der mehrstufigen negativen Stichprobenentnahme entwickeln, die es ermöglicht, negative Knotenbeispiele mit flexibler und kontrollierbarer "Härte" aus dem latenten Raum zu generieren, um die Leistung der Graphlink-Vorhersage zu verbessern.
Die vorgeschlagene Methode SGNCL nutzt Subgraph-Netzwerke als Augmentierungsansatz, um die Interaktionen zwischen Substrukturen in Graphen zu erfassen und dadurch leistungsfähigere Graphrepräsentationen für nachgelagerte Aufgaben wie die Graphklassifizierung zu lernen.
Instruktionsbasiertes Hypergraph-Pretraining (IHP) überwindet die Diskrepanz zwischen Pretraining und Downstream-Aufgaben, indem es textbasierte Anweisungen nutzt, um die Repräsentationslernung gezielt auf spezifische Aufgaben auszurichten. IHP ermöglicht es dem Modell, hochrangige Beziehungen unter Berücksichtigung von Aufgabeninformationen in einem kontextbewussten Verfahren zu erfassen.
Unser Modell SLA-VGAE verbessert die Leistung von variationellen Graphautoencoder-Modellen für die induktive Graphrepräsentationslernung, indem es Knotenlabels als Eingabe verwendet und eine Selbstlabel-Erweiterungsmethode nutzt, um die Knoten-Labelinformationen bei geringer Datenverfügbarkeit zu erhöhen.
Das vorgeschlagene AKBR-Modell kann die Bedeutung verschiedener Teilstrukturen adaptiv identifizieren und eine adaptive Kernelmatrix für die Graphklassifizierung berechnen, indem es einen End-to-End-Lernmechanismus bereitstellt.
Durch das kollaborative Lernen von GNN und Transformer können lokale und globale Informationen effizient erfasst und der Über-Glättungs-Effekt von GNNs vermieden werden, um eine selbstüberwachte Darstellung heterogener Graphen zu erreichen.
Ein einheitliches adversariell maskiertes Autoencoder-Modell (GA2E) kann verschiedene Graphaufgaben nahtlos vereinen, indem es den Subgraphen als Meta-Struktur verwendet und einen adversariellen Trainingsmechanismus einführt, um die Robustheit der Darstellung zu verbessern.
Der vorgestellte r-ℓWL-Algorithmus und die entsprechende r-ℓMPNN-Architektur können Zyklen bis zur Länge r+2 zählen und sind damit ausdrucksstärker als der klassische k-WL-Algorithmus.
ADEdgeDrop, eine neuartige Methode zur adversariellen Kantenentfernung, verbessert die Robustheit und Generalisierung von Graph-Neuronalen-Netzen, indem sie eine trainierbare Kantenvorhersage verwendet, um kritische Verbindungen zu erhalten und unwichtige Kanten zu entfernen.