核心概念
Ein neuartiger Ansatz namens Snowball, der eine individuelle Perspektive nutzt, bei der jedes Modellupdate als Agent fungiert, der Modellaktualisierungen für die Aggregation wählt, und bidirektionale Wahlen durchführt, um Modelle auszuwählen, die aggregiert werden sollen.
要約
Der Artikel stellt einen neuen Ansatz namens Snowball vor, um Backdoor-Angriffe in föderativem Lernen (FL) zu verteidigen. Snowball ermöglicht eine individuelle Perspektive, bei der jedes Modellupdate als Agent fungiert, der Modellaktualisierungen für die Aggregation wählt. Es führt bidirektionale Wahlen durch, um Modelle auszuwählen, die aggregiert werden sollen:
- Bottom-up-Wahl: Jedes Modellupdate stimmt für mehrere seiner nächsten Peers, so dass einige Modellaktualisierungen als Ausgewählte für die Aggregation bezeichnet werden.
- Top-down-Wahl: Die Ausgewählten erweitern sich dann schrittweise, indem sie sich auf die Unterschiede zwischen den Modellaktualisierungen konzentrieren, um infizierte Modellaktualisierungen besser ausschließen zu können.
Die Experimente auf fünf realen Datensätzen zeigen, dass Snowball im Vergleich zu state-of-the-art-Verteidigungsansätzen eine überlegene Widerstandsfähigkeit gegen Backdoor-Angriffe aufweist, wenn die Nicht-IID-Natur der Daten komplex ist und das Verhältnis der Angreifer zu allen Clients nicht gering ist. Darüber hinaus kann Snowball leicht in bestehende FL-Systeme integriert werden.
統計
Die durchschnittliche Distanz zwischen benigneren Modellaktualisierungen ist viel kleiner als die zwischen benigneren und infizierten Modellaktualisierungen, nachdem einige Runden vergangen sind.
引用
"Defenses of the models, by the models, for the models."
"It is easier to push a stack of nonlinear layers towards zero than towards identity mapping."