連邦学習(FL)は、数百万台のエッジデバイス(スマートフォンなど)にわたってモデルを訓練するML手法である。各ラウンドで、中央のコーディネータが参加クライアントを選択し、グローバルモデルを送信する。各参加クライアントはローカルデータでモデルを訓練し、更新を送信する。コーディネータはこれらの更新を集約してグローバルモデルを更新する。
しかし、クライアントデバイスの能力や学習データの分布が大きく異なるため、個別のクライアントに最適化されたモデルを効率的に生成・訓練することが課題となる。既存の手法は、単一のグローバルモデルの精度向上や、複数のモデルを並行訓練することに焦点を当ててきたが、クライアントの多様性に十分に対応できていない。
FedTransは、モデル変換と重み共有を用いて、コストを抑えつつ高精度なモデルを自動的に生成し、クライアントに割り当てる。具体的には以下の3つの機能を提供する:
モデル変換器: 訓練中のモデルの精度ボトルネックを特定し、モデル構造を適応的に変換(幅や深さを変更)することで、クライアントの多様なリソース要件に合わせた高精度モデルを生成する。
クライアントマネージャ: 各クライアントに最適なモデルを割り当てる。クライアントのリソース制約と、各モデルの精度・コストのトレードオフを考慮して判断する。
モデル集約器: 複数のモデルを並行訓練する際に、モデル間の構造的類似性を利用して重みを効率的に共有・集約することで、訓練コストを削減する。
FedTransの評価では、既存手法と比較して13.78%-72.15%の精度向上と1.6倍-20倍のコスト削減を達成した。また、ビジョントランスフォーマーなどの新しいモデル構造にも適用可能であることを示した。
Sang ngôn ngữ khác
từ nội dung nguồn
arxiv.org
Thông tin chi tiết chính được chắt lọc từ
by Yuxuan Zhu,J... lúc arxiv.org 04-23-2024
https://arxiv.org/pdf/2404.13515.pdfYêu cầu sâu hơn