Centrala begrepp
In dieser Arbeit wird ein neuartiger hybrider byzantinischer Angriff auf Federated Learning vorgestellt, der die Topologie neuronaler Netze ausnutzt, um effiziente und schwer erkennbare Angriffe zu entwickeln. Der Angriff kombiniert einen aggressiven, aber erkennbaren Teil mit einem stillen, aber akkumulierenden Teil, um verschiedene Verteidigungsmechanismen zu umgehen.
Sammanfattning
Die Arbeit befasst sich mit Federated Learning, einem kollaborativen Lernrahmen, bei dem viele Clients lokal ihre Modelle optimieren und dann einen globalen Konsens über einen zentralen Parameter-Server herstellen. Aufgrund der Beteiligung vieler Clients besteht jedoch die Gefahr, dass böswillige Teilnehmer die Genauigkeit des trainierten Modells beeinträchtigen, indem sie vergiftete Modelle während des Trainings übermitteln (byzantinische Angriffe).
Die Autoren argumentieren, dass durch die Extraktion bestimmter Informationen über die Topologie neuronaler Netze stärkere Angriffe entwickelt werden können. Sie stellen einen hybriden byzantinischen Angriff vor, der aus zwei Teilen besteht: einem, der eine spärliche Natur aufweist und nur bestimmte empfindliche Stellen im neuronalen Netz angreift, und einem, der leiser, aber über die Zeit akkumulierend ist. Zusammen bilden sie einen starken, aber schwer erkennbaren Angriff.
Die Autoren zeigen durch umfangreiche Simulationen, dass der vorgeschlagene hybride byzantinische Angriff gegen 8 verschiedene Verteidigungsmethoden effektiv ist. Der Angriff kann die Testgenauigkeit um bis zu 60% in IID-Simulationen reduzieren und das Modelltraining in Nicht-IID-Simulationen vollständig zum Scheitern bringen.
Statistik
Die Testgenauigkeit kann um bis zu 60% in IID-Simulationen reduziert werden.
Das Modelltraining kann in Nicht-IID-Simulationen vollständig zum Scheitern gebracht werden.
Citat
Keine relevanten Zitate gefunden.