Grunnleggende konsepter
逆転呪いを解決するための効果的なトレーニング方法を提案する。
Sammendrag
大規模言語モデル(LLMs)は「Aが特徴Bを持つ」というトレーニングで「BはAの特徴である」と一般化できないという問題がある。
この問題を解決するために、逆方向にトレーニングされたモデルが提案されており、実験結果では良好なパフォーマンスが示されている。
さまざまな実験セットアップで、逆転トレーニングが逆転呪いを緩和し、特定のケースでは完全に解消することが示されている。
Introduction
LLMsは推論、常識、世界知識に関連するタスクで非常に優れた性能を発揮する。
最も強力なLLMsでも「A is the capital of B」のような事実を正しく反転させることができず、「Franceの首都はParisです」というテキストが含まれても正しく回答できない。
この問題は人間の知能の基本機能であり、Zipf's lawによって引き起こされる珍しい事実や一方向だけに現れる事実から生じる可能性がある。
Reverse Training
通常左から右へ自己回帰的にトレーニングされているLLMsを右から左へトレーニングすることで、逆転呪いを解消しようとしている。
文字列を反対方向に変えつつ、エンティティなど一部分文字列は保持したままトレーニングされる。
異なるリバーサルタイプ(token reversal, word reversal, entity-preserving reversal, random segment reversal)の効果も検証されており、特定のケースでは完全に解消されている。
Experiments
シンボリックリバースタスクやバイオグラフィデータ実験では、単語順序の保持が重要であることが示唆されている。
実世界知識タスクや架空の事実フィントゥニングタスクでも逆転トレーニングは有効であり、正確性が向上している。
Statistikk
"大規模言語モデル(LLMs)は「A has a feature B」というトレーニング時、「B is a feature of A」と一般化できない"
"Zipf's lawによって多くの事実は稀にしか言及されず、また一方向だけ"
Sitater
"The reversal curse may have been hard to notice at first because most LLMs are trained on internet-scale data."
"Reverse training involves training on both the standard and reversed examples, doubling the amount of training tokens."