Centrala begrepp
時間的な不一致を軽減するために、過去に収集されたデータで訓練されたモデルが現在のデータで評価される際に生じる問題に対処する新しいアプローチを提案します。
Sammanfattning
大規模言語モデルは、事前学習中に見られた世界の知識を保持できますが、この知識は時代遅れになりやすく、更新が難しいです。さらに、これらのモデルはしばしば時間的な不一致の下で使用され、過去に収集されたデータから訓練されているにもかかわらず、現在の質問に回答するよう求められます。この記事では、事実の持続時間予測というアプローチを提案し、迅速な変化が起こりやすい事実を特定することがモデルが時代遅れ情報を引用することを回避し、最新情報源を探索する必要性を決定するのに役立つことを示しています。また、事実の持続時間モデリングが知識密度タスク(例:オープン検索質問応答)のキャリブレーション向上にどう影響するかも示しています。
Statistik
Pred Duration: ~10 years
Confidence: 90%
Confidence Adjusted for Misalignment: 85%
Pred Dur: ~1 years
Conf. Adjusted for Misalignment: 8%
Confidence: 80%
Misalignment (m) = 3 years
Citat
"Identifying which facts are prone to rapid change can help models avoid reciting outdated information."
"We propose an alternative solution where we abstain from presenting facts that we predict are out of date."
"Our approach can reduce expected calibration error by 50-60% over using system confidence alone on two QA systems."