Centrala begrepp
大規模言語モデルのランキング能力を向上させるために、クエリ依存型のパラメータ効率的ファインチューニング手法を提案する。
Sammanfattning
本論文では、大規模言語モデル(LLM)のランキング能力を向上させるために、クエリ依存型のパラメータ効率的ファインチューニング(Q-PEFT)手法を提案している。
- 従来のPEFT手法では、固定のプロンプトを使用したり、特定のタスクに過剰に適応してしまうなどの課題があった。
- Q-PEFTでは、クエリ情報を活用して、より文書に特化した合成クエリを生成することで、ランキング性能を向上させる。
- 具体的には、Q-PEFT-RとQ-PEFT-Aの2つの手法を提案している。
- Q-PEFT-Rは、クエリの上位k単語をドキュメントから抽出し、それらの埋め込みを学習する。
- Q-PEFT-Aは、マルチヘッドアテンションを使ってクエリとドキュメントの関係性を学習する。
- 4つのデータセットで実験を行い、提案手法がベースラインモデルを大幅に上回ることを示している。
Statistik
クエリ𝑞𝑐を入力ドキュメント𝑑𝑐に基づいて生成する際の対数尤度:
𝐼𝜃,Φ(𝑞𝑐|𝑑𝑐,𝑠) =
|𝑞𝑐|
∑︁
𝑙=1
log𝑝𝜃,Φ (𝑞𝑐𝑙| 𝑞𝑐<𝑙,𝑑𝑐,𝑠)