Core Concepts
大規模言語モデルを実際のシナリオの領域特化型質問応答に適用するには、ユーザーの要求に適応しつつ、領域固有の知識ベースを適切に活用する必要がある。本研究では、知識ベースを活用した好みの整合化フレームワーク「KnowPAT」を提案し、これらの課題に取り組む。
Abstract
本研究は、大規模言語モデル(LLM)を実際のシナリオの領域特化型質問応答に適用する際の課題に取り組んでいる。
領域特化型質問応答には、その領域に関する包括的な理解が必要だが、従来の深層学習モデルでは不十分である。そのため、領域知識ベース(KB)が重要なツールとなる。
一方、LLMは近年大きな進歩を遂げ、様々なNLPタスクで優れた性能を発揮するようになった。LLMをドメイン特化型QAに適用するための一般的なパイプラインは、知識検索拡張生成(RAG)である。
しかし、RAGでは2つの課題がある。1つは、LLMの生成結果がユーザーフレンドリーであることが重要だが、そうでない可能性がある。もう1つは、検索された知識が必ずしも有用ではなく、LLMが知識を賢明に活用する能力が必要である。
これらの2つの課題は、LLMの好みの問題として要約できる。LLMには、生成スタイルの好みと知識活用の好みがある。
本研究では、これらの好みの問題に取り組むため、知識ベースを活用した好みの整合化フレームワーク「KnowPAT」を提案する。
KnowPATは、知識ベースを活用して知識好みのデータセットを構築し、新しい好みの整合化目的関数を設計することで、LLMの好みを人間の好みに整合化する。
実験の結果、KnowPATは15種類のベースラインメソッドを上回る性能を示した。
Stats
検索された知識の中には、ユーザーの質問に関係のない情報(例えばMACがリップスティックの種類であるなど)が含まれることがある。
適切な知識を選択的に活用する能力が、LLMに求められる。
Quotes
"LLMの生成結果がユーザーフレンドリーであることが重要だが、そうでない可能性がある。"
"検索された知識が必ずしも有用ではなく、LLMが知識を賢明に活用する能力が必要である。"