Core Concepts
大規模言語モデルは、現実的な知識対立下でも、自身の誤った固有知識を更新することができる。しかし、誤った固有知識が文脈に現れると、知識更新の失敗につながる可能性がある。
Abstract
本研究は、大規模言語モデルの知識更新行動を現実的な設定で調査しています。従来の研究では、人工的に作成された矛盾する文脈を使って知識更新を研究していましたが、本研究では実際の矛盾する文書を使って知識更新を調査しています。
その結果、大規模言語モデルは、現実的な知識対立下でも、自身の誤った固有知識を多くの場合更新することができることが分かりました。しかし、モデルの誤った固有知識が文脈に現れると、知識更新の失敗につながる可能性があることも明らかになりました。
この現象を「パラメトリックバイアス」と呼び、モデルの固有知識が文脈理解に悪影響を及ぼすことを示しています。この問題は、6つのQAデータセットと4つのモデルで一貫して観察されました。
さらに、固有知識の文脈への追加や固有知識のマスキングなどの介入実験を行い、パラメトリックバイアスの存在を裏付けています。これらの結果は、大規模言語モデルの信頼性と堅牢性を向上させるための重要な洞察を提供しています。
Stats
誤った固有知識が文脈に現れる割合は、知識更新に失敗した事例では32%から88%に上るが、全体では5%から28%にとどまる。
誤った固有知識が文脈に現れると、知識更新に失敗する可能性が5%から20%ポイント増加する。
Quotes
"大規模言語モデルは、現実的な知識対立下でも、自身の誤った固有知識を多くの場合更新することができる。"
"モデルの誤った固有知識が文脈に現れると、知識更新の失敗につながる可能性がある。"
"この現象を「パラメトリックバイアス」と呼び、モデルの固有知識が文脈理解に悪影響を及ぼすことを示している。"