Core Concepts
現代の大規模言語モデルは最初に正しい事実を生成し、その後誤った事実を生成する傾向がある。このセマンティックドリフトを定量的に測定し、事実性を改善する手法を提案する。
Abstract
本研究では、現代の大規模言語モデルが正しい事実から誤った事実へとドリフトしていく傾向を明示的に示す。
正しい事実と誤った事実の分離度合いを表すセマンティックドリフトスコアを定義し、LLaMa2-70Bなどの言語モデルで高いスコアを示すことを確認した。
この正しい事実から誤った事実への移行パターンを利用して、生成を早期に停止することで事実性を大幅に改善できることを示した。
さらに、文生成の再サンプリングとランキングを組み合わせることで、情報量と事実性のトレードオフを調整できることを示した。
一方で、外部APIを利用してモデルを正しい生成経路に戻すことは効果的ではなかった。
提案手法は汎用的であり、長文テキスト生成における事実性の向上に適用できる。
Stats
LLaMa2-70Bモデルの生成テキストにおいて、正しい事実と誤った事実の分離度合いを表すセマンティックドリフトスコアは平均0.78であった。