本論文では、PoisonedFLと呼ばれる新しい悪意のある攻撃手法を提案している。PoisonedFLの目的は、フェデレーティブ学習の訓練プロセスを悪意のある方法で汚染することで、最終的に学習されたグローバルモデルが多くの入力を誤分類するようにすることである。
PoisonedFLの主な特徴は以下の通り:
複数ラウンドにわたる一貫性: PoisonedFLは、悪意のあるクライアントの各ラウンドの更新モデルに一貫性を持たせることで、防御策が適用された場合でも攻撃効果を維持する。これは既存の攻撃手法とは大きく異なる。
動的な攻撃の大きさ調整: PoisonedFLは、過去のラウンドの攻撃結果に基づいて、悪意のある更新モデルの大きさを動的に調整することで、未知の防御策に対しても効果的に機能する。
一般クライアントの情報を必要としない: PoisonedFLは、一般クライアントの更新モデルや局所的な訓練データに関する情報を必要としない。これは、既存の攻撃手法と大きく異なる。
実験の結果、PoisonedFLは8つの最新の防御策を破ることができ、既存の攻撃手法よりも高い攻撃効果を示すことが分かった。さらに、PoisonedFLに特化した新しい防御策を検討したが、PoisonedFLはそれらの防御策にも適応できることが示された。これは、フェデレーティブ学習システムがこれまで考えられていたよりも脆弱であることを示唆している。
翻译成其他语言
从原文生成
arxiv.org
更深入的查询