แนวคิดหลัก
TAMUNA は、ローカルトレーニング、通信圧縮、部分参加を組み合わせた分散最適化アルゴリズムであり、条件数と次元に関して二重に高速化された収束特性を持つ。
บทคัดย่อ
本論文では、分散最適化と機械学習の文脈において、通信コストを削減するための2つの主要な手法であるローカルトレーニング(LT)と通信圧縮(CC)を組み合わせた新しいアルゴリズムTAMUNAを提案している。また、部分参加(PP)を可能にしている。
主な内容は以下の通り:
- LTとPPを組み合わせる際の課題を説明し、TAMUNAの設計によってこれを解決している。
- LTとCCを組み合わせる際の課題を説明し、TAMUNAの設計によってこれを解決している。
- TAMUNAは、条件数と次元に関して二重に高速化された収束特性を持つことを示している。
- 実験では、ロジスティック回帰問題に適用し、理論的な結果を裏付けている。
TAMUNAは、通信コストを大幅に削減しつつ、高速な収束特性を実現する新しい分散最適化アルゴリズムである。
สถิติ
条件数κは104に設定されている。
総通信量の重み付けパラメータαは0、0.1、1の3つの値が検討されている。
参加クライアント数cは全クライアント数nと等しい(完全参加)。