Core Concepts
言語モデルの中間層に蓄積される抽象的な言語構造を、最小ペアベンチマークを用いてデコーディング・プロービングすることで明らかにする。
Abstract
本研究では、言語モデルの内部表現を「脳」、その活性化を「神経活動」と捉え、最小ペアベンチマーク(BLiMP)を用いてデコーディング・プロービングを行った。その結果、以下の4つの主要な発見があった:
自己教師あり言語モデルは、中間層で文法性の情報を捉えられるが、GloVeやRNNモデルではできない。
GPT-2 XLは、初期の層で統語的文法性を学習し、後の層でも分散して表現される。文が複雑になるほど、より多くの層が必要となる。
形態論や意味-統語の境界に関する特徴は、統語的特徴よりも捕捉が難しい。
トランスフォーマーベースのモデルでは、埋め込みと注意機構の両方が文法的特徴を捉えるが、異なるパターンを示す。注意ヘッドは言語現象に対して類似した傾向を示すが、寄与度は異なる。
Stats
文法的な文と非文法的な文の違いを捉えるのに、GPT-2 XLの初期の3分の1の層で十分である。
文が複雑になるほど、GPT-2 XLがその言語的特徴を捉えるのに必要な層数が増える。
形態論や意味-統語の境界に関する特徴は、統語的特徴よりも捕捉が難しい。
Quotes
自己教師あり言語モデルは中間層で抽象的な言語構造を捉えられるが、GloVeやRNNモデルではできない。
GPT-2 XLは初期層で統語的文法性を学習し、後の層でも分散して表現される。
文が複雑になるほど、より多くの層が言語的特徴を捉えるのに必要となる。