核心概念
大規模な事前学習モデルをタスク固有のアダプタを用いて効率的にファインチューニングし、通信コストを削減しつつ各タスクの適応性を高める。
要約
本研究は、連邦学習(FL)の文脈において、大規模な事前学習モデルをファインチューニングする際の課題に取り組んでいる。具体的には、以下の点に焦点を当てている:
-
通信コストの削減: 大規模な事前学習モデルをファインチューニングする際の大きな通信コストの問題を解決するため、低ランクのアダプタを用いる。
-
タスク適応性の向上: クライアントごとに異なるタスクを扱う状況を想定し、各タスクに対して固有のアダプタを学習する。これにより、単一のアダプタを用いる場合に比べて、タスク適応性が向上する。
-
効率的な知識共有: サーバ側でアダプタのクラスタリングを行い、同じタスクを扱うクライアント間での知識共有を促進する。
具体的な手順は以下の通り:
- クライアントは各自のタスクに対して固有の低ランクアダプタを学習する。
- サーバはクライアントから受け取ったアダプタをクラスタリングし、同じタスクのアダプタを集約する。
- サーバは集約したアダプタをクライアントに送り返す。
- このプロセスを繰り返すことで、最終的にN個のタスク固有のグローバルアダプタが得られる。
実験の結果、提案手法であるFL-TACは、テキストおよび画像分類タスクにおいて、ベースラインと比較して高い性能と通信効率を示した。また、アダプタのクラスタリング過程の可視化から、タスク固有のアダプタが適切に学習されていることが確認された。
統計
単一のアダプタを用いる場合に比べ、タスク固有のアダプタを用いることで、低ランク条件下でも近似誤差の増加が緩やかになる。
FL-TACは、Databricks-Dolly-15kデータセットの8つのタスクのうち5つで、ベースラインFedITを上回る性能を示した。
FL-TACは、GLUEベンチマークおよびCIFAR-10/100データセットでも、ベースラインを上回る性能を達成した。
FL-TACは、ベースラインと比較して通信に必要なパラメータ数が少ない。
引用
"大規模な事前学習モデルをタスク固有のアダプタを用いて効率的にファインチューニングし、通信コストを削減しつつ各タスクの適応性を高める。"
"クライアントごとに異なるタスクを扱う状況を想定し、各タスクに対して固有のアダプタを学習する。これにより、単一のアダプタを用いる場合に比べて、タスク適応性が向上する。"
"サーバ側でアダプタのクラスタリングを行い、同じタスクを扱うクライアント間での知識共有を促進する。"