Der Artikel präsentiert einen Ansatz namens DPAR (Decoupled Graph Neural Networks with Differentially Private Approximate Personalized PageRank) für das Training von Graph-Neuronalen-Netzen (GNNs) mit Knoten-Ebenen-Differentieller Privatsphäre.
Der Schlüsselgedanke ist es, das Feature-Aggregieren und Message-Passing in zwei Schritte zu unterteilen:
Durch das Erfassen der wichtigsten Nachbarn für jeden Knoten (Begrenzung der Knoten-Sensitivität) und das Vermeiden des schichtweisen Message-Passing wird ein verbesserter Privatsphäre-Nutzen-Kompromiss im Vergleich zu schichtweisen Störungsverfahren erreicht.
Die Autoren entwickeln zwei DP-APPR-Algorithmen basierend auf dem exponentiellen Mechanismus und dem Gauß-Mechanismus, um die Top-K Elemente im APPR-Vektor mit formaler Knoten-Ebenen-Differentieller Privatsphäre auszuwählen. Sie verwenden dann DP-SGD für das Feature-Aggregieren und Modell-Training basierend auf den DP-APPR-Vektoren.
Umfangreiche Experimente auf fünf realen Graphdatensätzen zeigen, dass DPAR eine bessere Genauigkeit bei gleichem Knoten-DP-Niveau im Vergleich zu den neuesten Methoden erreicht.
Till ett annat språk
från källinnehåll
arxiv.org
Djupare frågor