핵심 개념
深層学習推薦モデルの訓練において、エラー制限付きロスレス圧縮を用いることで、通信データサイズを大幅に削減し、訓練時間を大幅に短縮できる。
초록
本論文は、深層学習推薦モデル(DLRM)の訓練における通信ボトルネックを解決するための手法を提案している。DLRMは大規模なエンベディングテーブルを必要とするため、複数のデバイスを使ったモデル並列化が必要となる。この際の全対全通信が訓練時間の大部分を占めるボトルネックとなっている。
提案手法では、エラー制限付きロスレス圧縮を用いて通信データサイズを削減する。具体的には以下の3つの取り組みを行っている:
- エンベディングデータの特性に合わせた新しい圧縮アルゴリズムの開発
- テーブル単位とイテレーション単位での適応的なエラー許容範囲の調整
- GPUでの高速な圧縮処理の実現
これらの取り組みにより、Criteo Kaggleデータセットで1.38倍、Criteo Terabytesデータセットで1.30倍の訓練時間の短縮を実現している。また、精度への影響は0.02%以内に抑えられている。
통계
提案手法により、Criteo Kaggleデータセットで6.22倍、Criteo Terabytesデータセットで8.6倍の通信高速化を実現した。
提案手法により、Criteo Kaggleデータセットで1.38倍、Criteo Terabytesデータセットで1.30倍の訓練時間の短縮を実現した。
인용구
"DLRMは大規模なエンベディングテーブルを必要とするため、複数のデバイスを使ったモデル並列化が必要となる。この際の全対全通信が訓練時間の大部分を占めるボトルネックとなっている。"
"提案手法では、エラー制限付きロスレス圧縮を用いて通信データサイズを削減する。"
"これらの取り組みにより、Criteo Kaggleデータセットで1.38倍、Criteo Terabytesデータセットで1.30倍の訓練時間の短縮を実現している。また、精度への影響は0.02%以内に抑えられている。"