Die Arbeit untersucht die Grenzen der Generalisierungsfähigkeit von Graphneuronalen Netzen mit Pfaffschen Aktivierungsfunktionen, indem sie Schranken für deren Vapnik-Chervonenkis-Dimension ableitet.
Durch die Einführung von Fairness-fördernden Merkmalen (F3) in Knoteneigenschaften oder -darstellungen können sensitive Verzerrungen statistisch neutralisiert und zusätzliche nicht-sensitive Informationen bereitgestellt werden, um einen besseren Kompromiss zwischen Vorhersagegenauigkeit und Fairness zu erreichen.
Die Anzahl der unterscheidbaren Eigenwerte spielt eine entscheidende Rolle für die Ausdruckskraft von spektralen Graphneuronalen Netzen. Eine Eigenwertkorrekturstrategie kann die Wiederholung von Eigenwerten reduzieren und so die Anpassungsfähigkeit und Ausdruckskraft von Polynomfiltern verbessern.
Der Quasi-Wasserstein-Verlust bietet eine neue, theoretisch fundierte Verlustfunktion zum Trainieren von Graphneuronalen Netzen, die die Abhängigkeiten zwischen Knotenbeschriftungen berücksichtigt und zu besseren Vorhersageergebnissen führt.
Durch die Verwendung von Chebyshev-Interpolation kann ChebNetII beliebige Spektralfilter optimal approximieren und so eine überlegene Leistung in Klassifikationsaufgaben auf Graphen erzielen.