Основные понятия
Eine föderierte Aggregationsmethode für Graphneuronale Netze, die an verschiedene Graphnetzwerktopologien angepasst ist und die Leistung des globalen Modells bei gleichzeitigem Schutz der Privatsphäre verbessert.
Аннотация
Die Studie präsentiert eine föderierte Aggregationsmethode namens FLGNN, die für Knoteneinteilungsaufgaben in verschiedenen Graphnetzwerktopologien geeignet ist.
Kernpunkte:
- FLGNN verwendet eine Teilungsstrategie basierend auf mehrschichtigen GNN-Gewichtsparametern, um an Szenarien mit unterschiedlichen Netzwerkstrukturen der Clients angepasst zu sein.
- Experimente zeigen, dass das globale Modell, das mit FLGNN erzielt wird, nur etwa 1-2% schlechter ist als das Modell, das durch gemeinsames Training der Daten erhalten wird.
- Für Szenarien mit unterschiedlichen Kantentypen der Clients wird eine dynamische Aggregationsstrategie FLGNN+ vorgestellt, die sich als effektiv erweist.
- Angriffs- und Verteidigungsexperimente zeigen, dass FLGNN eine gute Robustheit aufweist und die Erfolgsquote von Privatsphärediebstählen durch den Einsatz von Differential Privacy weiter reduziert werden kann.
Статистика
Die Genauigkeit des globalen Modells, das durch FLGNN-Aggregation erhalten wird, ist nur etwa 1-2% schlechter als das Modell, das durch gemeinsames Training der Daten erhalten wird.
Der Erfolg von Membership-Inferenz-Angriffen kann durch den Einsatz von Differential Privacy auf 30%-50% des alleinigen Trainings reduziert werden.
Цитаты
"Eine GNN-basierte föderierte Aggregationsmethode für Knoteneinteilung wird in dieser Studie vorgeschlagen, die eine Teilungsstrategie basierend auf mehrschichtigen GNN-Gewichtsparametern verwendet, um an Szenarien mit unterschiedlichen Netzwerkstrukturen der Clients angepasst zu sein."
"Für Szenarien mit unterschiedlichen Kantentypen der Clients wird eine dynamische Aggregationsstrategie FLGNN+ vorgestellt, die sich als effektiv erweist."
"Angriffs- und Verteidigungsexperimente zeigen, dass FLGNN eine gute Robustheit aufweist und die Erfolgsquote von Privatsphärediebstählen durch den Einsatz von Differential Privacy weiter reduziert werden kann."