Core Concepts
バイザンチン失敗脅威モデルに対する最適な学習保証は、より弱い部分的データ中毒脅威モデルに対しても最適である。さらに、完全中毒データと部分的中毒データの影響を明確に特徴付けている。
Abstract
この論文では、機械学習の分散環境におけるデータ中毒とバイザンチン失敗の問題を扱っている。
まず、データ中毒脅威モデルに対する下限界を示した。具体的には、f人の労働者のデータが完全に中毒されている場合、学習誤差はΩ(f/n・ζ2/μ)であり、ε精度の解を得るためには、Ω((f+1)/n・σ2/(με)+L/μ・log(Q0/ε))の反復回数が必要であることを示した。
次に、バイザンチン失敗脅威モデルに対する上限界を示した。具体的には、分散モーメンタムと座標ごとのトリミング平均を組み込んだDSGDアルゴリズムを提案し、その収束性能をO(f/n・ζ2/μ+ε)の誤差とO((1+f/n)・Kσ2/(με)+L/μ・log(Q0/ε))の反復回数で達成できることを示した。ここで、Kはホスト労働者の平均損失関数の条件数である。
さらに、完全中毒データと部分的中毒データの影響を比較し、前者が後者よりも強い adversarial 設定であることを示した。
全体として、バイザンチン堅牢スキームは、より弱い部分的データ中毒脅威モデルに対しても最適な解を与えることを明らかにしている。
Stats
学習誤差はΩ(f/n・ζ2/μ + b/m・σ2/μ)である。
ε精度の解を得るための反復回数はΩ((1+f/n)・σ2/(με)+L/μ・log(Q0/ε))である。
Quotes
"バイザンチン失敗脅威モデルは、より弱い部分的データ中毒脅威モデルを包含する。しかし、その防御コストが正当化できるかどうかは明らかではない。"
"バイザンチン堅牢スキームは、より弱い部分的データ中毒脅威モデルに対しても最適な解を与える。"