Core Concepts
Die individuelle Fairness von Knoten in Graphischen Neuronalen Netzen führt leider zu einer Eskalation der Datenschutzrisiken von Kanten.
Abstract
Die Studie untersucht die Wechselwirkung zwischen der individuellen Fairness von Knoten und den Datenschutzrisiken von Kanten in Graphischen Neuronalen Netzen (GNNs).
Zunächst wird theoretisch und empirisch gezeigt, dass sich die Verbesserung der individuellen Fairness der Knoten nachteilig auf die Datenschutzrisiken der Kanten auswirkt. Das bedeutet, es gibt einen Zielkonflikt zwischen Fairness und Datenschutz in GNNs.
Um diesen Zielkonflikt auszugleichen, wird eine Methode namens PPFR (Privacy-aware Perturbations and Fairness-aware Reweighting) vorgeschlagen. PPFR verwendet eine gewichtete Verlustfunktion basierend auf Einflussanalyse und eine datenschutzorientierte Graphstrukturverzerrung, um die Fairness zu verbessern, ohne die Leistung stark zu beeinträchtigen und die Datenschutzrisiken zu kontrollieren.
Die experimentellen Ergebnisse zeigen die Überlegenheit und Effektivität von PPFR im Vergleich zu bestehenden Methoden, die Fairness und Datenschutz separat adressieren. Damit trägt diese Arbeit dazu bei, vertrauenswürdige GNNs durch gleichzeitige Berücksichtigung von Fairness und Datenschutz umfassend zu entwickeln.
Stats
Die Anzahl der mit ähnlichen Knoten verbundenen Knoten ist größer als die Anzahl der nicht verbundenen Knotenpaare aufgrund der Homophilie und Spärlichkeit von Graphdaten.
Die Erwartungswerte der Größen der intra-Klassen-Nachbarschaftsmenge und der inter-Klassen-Nachbarschaftsmenge eines Knotens sind (n-1)p bzw. (n-1)q, wobei p > q ≥ 0 gilt.
Quotes
"Die individuelle Fairness von Knoten führt leider zu einer Eskalation der Datenschutzrisiken von Kanten."
"Um Fairness und Datenschutz gleichzeitig zu fördern, führen wir eine fairnessbasierte Gewichtung der Verlustfunktion und eine datenschutzorientierte Graphstrukturverzerrung ein."