Der Artikel untersucht ein Szenario, in dem ein Angreifer versucht, private Kanteninformationen aus einem trainierten Graph-Neuronalen-Netzwerk (GNN) wiederherzustellen. Bisherige Studien haben Differentielles Datenschutzverfahren (DP) verwendet, um direkt Rauschen zum Adjazenzmatrix oder einer kompakten Graphendarstellung hinzuzufügen. Diese hinzugefügten Störungen führen jedoch dazu, dass die Graphstruktur stark verzerrt wird, was die Modellleistung beeinträchtigt.
Der Artikel stellt einen neuen privatsphäre-erhaltenden GNN-Trainingsalgorithmus namens Eclipse vor, der eine gute Modellleistung beibehält, während er einen starken Schutz der Kanten bietet. Eclipse basiert auf zwei Schlüsselbeobachtungen:
Adjazenzmatrizen in Graphstrukturen zeigen ein niedrigrangiges Verhalten. Eclipse trainiert daher GNNs mit einem niedrigrangigen Format des Graphen über die Singulärwertzerlegung (SVD), anstatt den ursprünglichen Graphen zu verwenden.
Eclipse fügt Rauschen zu den niedrigrangigen Singulärwerten anstelle des gesamten Graphen hinzu, wodurch die Graphprivatsphäre erhalten bleibt, während genug von der Graphstruktur beibehalten wird, um die Modellleistung aufrechtzuerhalten.
Eclipse bietet formale DP-Garantien für Kanten. Experimente auf Benchmark-Graphdatensätzen zeigen, dass Eclipse einen deutlich besseren Privatsphäre-Leistungs-Kompromiss im Vergleich zu bestehenden privatsphäre-erhaltenden GNN-Trainingsmethoden erreicht. Insbesondere unter starken Privatsphärebeschränkungen (𝜖 < 4) zeigt Eclipse signifikante Verbesserungen der Modellleistung um bis zu 46%. Eclipse zeigt auch eine bessere Widerstandsfähigkeit gegen gängige Kantenangriffe.
Başka Bir Dile
kaynak içeriğinden
arxiv.org
Önemli Bilgiler Şuradan Elde Edildi
by Tingting Tan... : arxiv.org 03-19-2024
https://arxiv.org/pdf/2403.10995.pdfDaha Derin Sorular