Eine neuartige Methode zur Regularisierung der Aufmerksamkeitswerte in Graph Transformern, die den Bedarf an Positionscodierung reduziert und die Leistung stabilisiert.
Durch die Kombination von Graph Neural Networks (GNNs) und Large Language Models (LLMs) kann die Leistung von LLMs bei Graph-Lernaufgaben deutlich verbessert werden.
Eine informationstheoretische Definition von Erklärbarkeit wird eingeführt und es wird gezeigt, dass gängige Treue-Metriken oft nicht mit dieser Definition übereinstimmen. Eine robuste Klasse von Treue-Maßen wird vorgestellt, die resistent gegen Verteilungsverschiebungen sind und in einer Vielzahl von Szenarien anwendbar sind.
Dieser Artikel stellt einen neuartigen Ansatz, BG-HGNN, vor, um die Herausforderungen der Parameterexplosion und des Relationenkollaps in bestehenden heterogenen Graph-Neuronalen-Netzwerken (HGNNs) zu überwinden. BG-HGNN integriert heterogene Informationen effizient in einen einheitlichen Merkmalsraum, was zu einer verbesserten Skalierbarkeit und Leistungsfähigkeit führt, insbesondere bei komplexen Graphen mit zahlreichen Relationen.