Core Concepts
コントラストを用いたインコンテキスト学習により、大言語モデルの応答を利用者の意図に合わせて最適化することができる。
Abstract
本研究では、大言語モデル(LLM)の応答を利用者の意図に合わせて最適化するアプローチを提案している。
具体的には、正例(好ましい応答)と負例(好ましくない応答)のコントラストを示すことで、LLMに利用者の好みを学習させる手法を検討した。
正例と負例は、ラベル付きデータ、人手による生成、LLM自身による生成などの方法で得ることができる。
LLMにこれらのコントラストを示した上で、応答を生成させることで、利用者の好みに合った応答を得ることができる。
実験では、合成データおよびStackExchangeやRedditなどの実世界データを用いて評価を行い、提案手法が標準的なフューショット学習よりも優れた性能を示すことを確認した。
特に、LLM自身が生成した応答を負例として用いる方法が有効であることが分かった。
これは、人手で書かれた負例では利用者の好みを十分に捉えられない場合があるためと考えられる。
一方で、LLM自身の生成した応答は、感情や詳細さなどの好ましくない特徴を含んでいるため、それらを学習させることができる。
さらに、コントラストの特徴を自動的に要約して指示として与える手法についても検討し、コントラストの例と指示を組み合わせることで、さらに性能が向上することを示した。
以上より、本研究の提案手法は、LLMの応答を利用者の好みに合わせて最適化する上で有効であることが確認された。
Stats
標準的なフューショット学習と比べ、提案手法のほうが同程度のプロンプトトークン数で高い性能を示す。
人手で書かれた負例よりも、LLM自身が生成した負例のほうが、しばしば高い性能を示す。