本研究では、ChatGPTを使って10種類の寓話に7種類の文体バリエーションを生成し、それらをBERTに入力して隠れ層の活性化パターンを分析した。
隠れ層の活性化ベクトルを多次元尺度法で可視化し、クラスター分析を行った結果、以下のことが明らかになった:
これらの結果は、BERTの変換器ブロックが言語処理の異なる側面を担当するように特化していることを示唆している。早期の層では文体処理、中間層では内容処理、最終層では統合処理が行われていると考えられる。
この知見は、大規模言語モデルの内部メカニズムを理解し、人間の言語処理との対応関係を探る上で重要な手がかりとなる。また、より説明可能な人工知能の開発にも役立つと期待される。
Na inny język
z treści źródłowej
arxiv.org
Głębsze pytania