Core Concepts
Clarifying the confusion around poisoning attacks in Federated Learning by presenting a spectrum of adversary models and proposing a hybrid model for more effective attacks.
Abstract
フェデレーテッドラーニング(FL)における悪意のあるクライアントによる毒物攻撃に関する混乱を解消し、より効果的な攻撃を提案するため、様々な敵対モデルのスペクトルを提示し、ハイブリッドモデルを提案しています。FLは分散データでモデルをトレーニングすることが可能な機械学習パラダイムであり、悪意のあるクライアントによる毒物攻撃への対策が重要です。論文では、現在の敵対モデルの混乱を明確化し、さまざまな脅威タイプに対処するための理解を提供しています。
Stats
フェデレーテッドラーニング(FL)は分散されたデータでモデルをトレーニングする機械学習パラダイムです。
毒物攻撃に対するセキュリティは重要であり、さまざまな敵対モデルが存在します。
ハイブリッド敵対者モデルは、実際のクライアント数を犠牲にして効果的な攻撃を行うことができます。
DDPMやDCGANなどの生成モデルは新しいサンプル生成に使用されます。
Norm-BoundingやMedianなどのAGRsは異なる閾値設定で異なる影響力を持ちます。
Quotes
"FL is susceptible to poisoning by malicious clients who aim to hamper the accuracy of the global model."
"Our work aims to provide practitioners and researchers with a clear understanding of the different types of threats they need to consider when designing FL systems."
"DDPM is able to learn the structure of the data distribution from a small number of observations, even in the presence of noise."