核心概念
本稿では、従来のプロンプトチューニングよりも優れた性能を発揮する、インスタンス依存のソフトプロンプティング手法であるLoPA (Low-Rank Prompt Adaptation) を提案する。LoPAは、タスク固有とインスタンス固有の情報を組み合わせることで、基盤モデルのパラメータ効率を維持しながら、高い性能を実現する。
要約
LoPA: 低ランクプロンプト適応による基盤モデルのカスタマイズ:プロンプトチューニングの逆襲
本稿では、大規模言語モデル(LLM)の分野において、新たなプロンプトチューニング手法であるLoPA (Low-Rank Prompt Adaptation) を提案する。LoPAは、従来のプロンプトチューニング手法よりも優れた性能を発揮し、フルファインチューニングやLoRAに匹敵する性能を、より少ないパラメータで実現する。
近年、大規模言語モデル(LLM)は目覚ましい発展を遂げている。しかし、LLMを特定のタスクに最適化するためには、依然としてファインチューニングが不可欠である。しかし、モデルが巨大化するにつれて、すべてのパラメータを更新することは非現実的になっている。そこで、パラメータ効率の良いファインチューニング(PEFT)が注目されている。PEFTは、モデルパラメータの一部のみを調整し、残りは変更しないことで、複数のユーザーに対して事前にトレーニングされた基盤モデル(FM)をパーソナライズすることを可能にする。
従来のプロンプトチューニングは、タスク固有のソフトプロンプトを学習することでモデルをカスタマイズするが、他のPEFT手法と比較して性能が劣ることが知られている。また、インスタンス固有のソフトプロンプトをエンコードするだけのIDPGのような手法は、過剰適合を起こしやすく、必ずしも性能が向上するとは限らない。