Centrala begrepp
大規模言語モデルにおける高レベルな意味概念が「線形的に」符号化される原因を研究し、次トークン予測の概念ダイナミクスを数学的に分析しています。
Sammanfattning
最近の研究では、大規模言語モデルの表現空間で高レベルな意味概念が「線形的に」符号化されていると主張されています。この論文では、次トークン予測目的(ソフトマックスと交差エントロピー)と勾配降下法の暗黙のバイアスが共同して概念の線形表現を促進することを示しています。実験は、潜在変数モデルから抽出したデータを学習する際に線形表現が生じることを確認し、この単純な構造でもすでに線形表現が得られることを裏付けています。また、LLaMA-2大規模言語モデルを使用して理論の予測を確認し、この単純なモデルが一般化可能な洞察を提供する証拠も得ました。
Citat
"Linear representation structure is not specific to the choice of model architecture, but a by-product of how the model learns the conditional probabilities of different contexts and corresponding outputs."
"The simple latent variable model gives rise to representation behavior such as linearity and orthogonality akin to those observed in LLMs."
"Gradient descent under this setting would converge to the max-margin solution, which makes the direction of v unique."