Die Repräsentationsverzerrung in Graphneuronalen Netzwerken ist unvermeidbar, wenn sich der Graph über die Zeit entwickelt. Um die Generalisierungsleistung in solchen Szenarien ohne menschliche Annotation zu schätzen, schlagen wir einen selbstüberwachten Ansatz namens SMART vor, der eine adaptive Merkmalsextraktion durch Graphrekonstruktion nutzt.
Kontinuierliche Graphneuronale Aggregations-Diffusions-Modelle (GRADE) nutzen die Metastabilität von Aggregations-Diffusions-Gleichungen, um Überglättung in Graphneuronalen Netzwerken zu verhindern.
Die vorgeschlagene Methode "Local Message Compensation" (LMC) ermöglicht ein schnelles und effizientes Training von Graphneuronalen Netzwerken (GNNs) durch subgraphweises Sampling, ohne dabei die Konvergenz zu beeinträchtigen.
FreshGNN ist ein allgemeiner Rahmen für das Mini-Batch-Training von Graphneuronalen Netzen, der die Speicherzugriffe durch die Verwendung stabiler historischer Einbettungen reduziert, ohne dabei die Genauigkeit zu beeinträchtigen.
Durch die Integration von GPT-4 in die automatische Suche nach Graphneuralarchitekturen (GNAS) kann der Aufwand für das manuelle Design des Suchraums und der Suchstrategie erheblich reduziert werden. Das vorgeschlagene GPT4GNAS-Verfahren nutzt die leistungsfähige Generierungsfähigkeit von GPT-4, um neue Graphneuralarchitekturen zu erstellen, die die Leistung bestehender GNAS-Methoden übertreffen.