本研究では、言語モデルのパラメトリック知識に基づいてインコンテキスト例を作成する方法を検討している。
まず、言語モデルが既知の情報(known)と未知の情報(unknown)を含むインコンテキスト例を提示することで、モデルが自身の知識を活用しつつ推測することができ、最も良い性能が得られることを示した。
次に、インコンテキスト例の答案の提示順序に着目した。答案を言語モデルの知識度に応じて降順に提示すると、答案数の増加や正答率の向上につながることを明らかにした。一方で、答案を無作為に並べた場合や辞書順に並べた場合は、性能向上につながらなかった。
これらの結果から、言語モデルのパラメトリック知識を考慮してインコンテキスト例を作成することが、知識集約型タスクの性能向上に有効であることが示された。
To Another Language
from source content
arxiv.org
Key Insights Distilled From
by Yoonsang Lee... at arxiv.org 04-05-2024
https://arxiv.org/pdf/2311.09579.pdfDeeper Inquiries