Core Concepts
言語モデルは、事前学習時に獲得した規則性を利用して、単純な加算更新メカニズムを使って、一部の関係タスクを解決することがある。
Abstract
本論文は、言語モデル(LM)の内部メカニズムを分析したものである。主な発見は以下の通り:
LMは、入力文脈から必要な情報を抽出し、それに適切な関数を適用することで、一部の関係タスクを解決している。この処理は、引数の表現、関数の適用、答えの飽和という3つの段階に分かれる。この処理パターンは、モデルサイズが大きくなるほど顕著になる。
GPT2-Mediumを詳しく分析したところ、中間層の順方向ニューラルネットワーク(FFN)が、文脈に依存しない関数を実装していることがわかった。この関数は、引数に応じて答えを生成する。実験では、FFNの出力ベクトルを別の文脈に適用することで、同様の関数を実現できることを示した。
この関数適用メカニズムは、答えが入力文脈に含まれない抽象的なタスクでのみ観察された。答えが文脈に含まれる抽出的なタスクでは、FFNの役割は限定的であることがわかった。
以上の結果から、LMは事前学習時に獲得した規則性を活用して、一部のタスクを単純な加算更新メカニズムで解決していることが明らかになった。また、FFNがこのメカニズムの中心的な役割を果たしていることが示された。
Stats
言語モデルは、事前学習時に獲得した規則性を活用して、単純な加算更新メカニズムを使って一部のタスクを解決する。
中間層のFFNがこのメカニズムの中心的な役割を果たしている。
このメカニズムは、答えが入力文脈に含まれない抽象的なタスクでのみ観察された。
Quotes
"言語モデルは、事前学習時に獲得した規則性を活用して、単純な加算更新メカニズムを使って一部のタスクを解決する。"
"中間層のFFNがこのメカニズムの中心的な役割を果たしている。"
"このメカニズムは、答えが入力文脈に含まれない抽象的なタスクでのみ観察された。"