Core Concepts
大規模言語モデルの性能は、プロンプトの質に大きく影響される。本研究では、プロンプトの文章自体を変更せずに、位置情報のみを操作することで、大規模言語モデルの性能を大幅に向上させることができることを示した。
Abstract
本研究では、大規模言語モデル(LLM)の性能を向上させるための新しい手法として「位置情報操作」を提案している。従来のプロンプト工学では、プロンプトの文章自体を変更することで性能向上を図ってきたが、本手法では文章を変更せずに、トークンの位置情報のみを操作することで同様の効果を得られることを示した。
具体的には、プロンプトの中にプレースホルダートークンを挿入することで、トークンの相対的な位置関係を変化させ、注意機構の振り分けを最適化する。この位置情報操作は、検索支援型生成(RAG)タスクと文脈学習(ICL)タスクの両方で大幅な性能向上を実現した。
RAGタスクでは、命令セグメントとドキュメントセグメントの間、およびドキュメントセグメントと質問セグメントの間にプレースホルダートークンを挿入することで、最大15.4%の絶対的な精度向上を達成した。ICLタスクでは、例示セグメントの前後にプレースホルダートークンを挿入することで、最大3.6%の絶対的な精度向上を実現した。
位置情報操作は、プロンプト工学と比べて最適化が容易であり、計算コストも増加しないという利点がある。また、両手法を組み合わせることで、さらなる性能向上が期待できる。今後は、位置情報操作の内部メカニズムの解明や、より高度な最適化手法の検討などが課題として考えられる。
Stats
プロンプトの位置情報を操作することで、RAGタスクでは最大15.4%、ICLタスクでは最大3.6%の絶対的な精度向上が得られた。