Core Concepts
大規模言語モデルにおいて、語彙間の上位下位関係といった言語的抽象化が内部的に表現されていることを示した。
Abstract
本研究では、大規模言語モデルBERTを用いて、語彙間の上位下位関係(ハイパーニミー)の表現を分析した。心理学的に動機付けられた上位下位関係のデータセットを作成し、BERTの注意機構における特徴を分析した。上位下位関係にある語彙ペアと、意味的類似性や抽象化レベルが異なる対照群との比較を行った結果、BERTは上位下位関係に対応する注意パターンを学習していることが示された。これは、単なる意味的類似性を超えた抽象化メカニズムの存在を示唆している。本研究は、大規模言語モデルにおける概念的抽象化の理解に向けた一歩となる。
Stats
上位概念は下位概念の一種である。
上位概念と下位概念は分布的に非常に類似している。
上位下位関係にある語彙ペアと、意味的類似性や抽象化レベルが異なる対照群のデータを比較した結果、BERTの注意機構に明確な違いが見られた。
Quotes
大規模言語モデルは、人間のような抽象化メカニズムを正確に模倣しているわけではない。
本研究の結果は、大規模言語モデルにおける概念的抽象化の理解に向けた一歩となる。