Core Concepts
限られたローカルデータの中で、ユーザー間の協調的な自己教師あり微調整を行うことで、大規模言語モデルのパーソナライズされた高度化を実現する。
Abstract
本研究では、大規模言語モデル(LLM)の個人向けの協調的な微調整手法を提案している。LLMの微調整は通常、ユーザーが独立して行うが、ローカルデータが限られている場合は効果が低い。そこで、ユーザー間で協調的に微調整を行うことで、データの不足や異質性に対処することを目指す。
具体的には、3つの異なる協調的な重み付け手法を提案している:
重み類似度に基づく手法
検証性能に基づく手法
予測類似度に基づく手法
これらの手法は、ユーザー間の協調を通じて、単独の微調整やFedAvgよりも優れた性能を発揮する。特に予測類似度に基づく手法が最も優れた結果を示した。
また、LoRAを用いることで通信オーバーヘッドを大幅に削減できる。提案手法は、データ不足や異質性が課題となる、デバイス上でのLLM微調整に適している。
Stats
各ユーザーのデータ分布は、トピックや言語の違いから大きな異質性を持つ
提案手法は、単独の微調整やFedAvgよりも優れた検証パープレキシティを達成する
Quotes
個人向けの協調的な微調整により、データの不足や異質性に対処できる
予測類似度に基づく手法が最も優れた性能を示した