Główne pojęcia
連合学習は自動運転における機械学習モデルの訓練に有望であるが、悪意のある参加者による毒素攻撃に対して脆弱である。本論文では、回帰タスクに特化した2つの新しい毒素攻撃手法を提案し、その有効性を実験的に示している。
Streszczenie
本論文では、自動運転における連合学習の脆弱性を検討している。連合学習は分散学習を可能にし、データ保護や帯域幅の削減などの利点がある。しかし、悪意のある参加者による毒素攻撃に対して脆弱である。
本論文では2つの新しい毒素攻撃手法を提案している:
- FLStealth: 目立たずにグローバルモデルの性能を劣化させる非標的型攻撃
- Off-Track Attack (OTA): 車両軌跡予測タスクに特化した標的型攻撃
実験では、Zenseact Open Datasetを用いて車両軌跡予測タスクを検討した。FLStealhは多くの防御手法を回避できることを示し、OTAは一般的な防御手法では効果的に防ぐことができないことを示した。
これらの結果は、自動運転における連合学習の脆弱性を明らかにしており、より強力な防御メカニズムの必要性を示唆している。
Statystyki
車両軌跡予測タスクにおいて、FLStealth攻撃は多くの防御手法を回避できる
OTA攻撃は一般的な防御手法では効果的に防ぐことができない
Cytaty
"連合学習は分散学習を可能にし、データ保護や帯域幅の削減などの利点がある。しかし、悪意のある参加者による毒素攻撃に対して脆弱である。"
"FLStealhは多くの防御手法を回避できることを示し、OTAは一般的な防御手法では効果的に防ぐことができないことを示した。"