本研究は、連邦学習(FL)の文脈において、大規模な事前学習モデルをファインチューニングする際の課題に取り組んでいる。具体的には、以下の点に焦点を当てている:
通信コストの削減: 大規模な事前学習モデルをファインチューニングする際の大きな通信コストの問題を解決するため、低ランクのアダプタを用いる。
タスク適応性の向上: クライアントごとに異なるタスクを扱う状況を想定し、各タスクに対して固有のアダプタを学習する。これにより、単一のアダプタを用いる場合に比べて、タスク適応性が向上する。
効率的な知識共有: サーバ側でアダプタのクラスタリングを行い、同じタスクを扱うクライアント間での知識共有を促進する。
具体的な手順は以下の通り:
実験の結果、提案手法であるFL-TACは、テキストおよび画像分類タスクにおいて、ベースラインと比較して高い性能と通信効率を示した。また、アダプタのクラスタリング過程の可視化から、タスク固有のアダプタが適切に学習されていることが確認された。
To Another Language
from source content
arxiv.org
Key Insights Distilled From
by Siqi Ping,Yu... at arxiv.org 04-25-2024
https://arxiv.org/pdf/2404.15384.pdfDeeper Inquiries