Core Concepts
英語は語彙統語的柔軟性が高く、単語の品詞が非典型的な文脈で使用されることがある。本研究では、5つの大規模言語モデルがこの現象をどの程度捉えられるかを検証した。
Abstract
本研究は、英語の語彙統語的柔軟性、すなわち品詞変換(ゼロ派生)に着目し、大規模言語モデルの性能を評価した。
まず、典型的な品詞、非典型的な品詞、擬似語の3つの条件で構成された3,069個の文脈を作成した。この文脈を、GPT-3.5、GPT-4、Mistral 7B、Falcon 40B、Llama 2 70Bの5つの言語モデルに提示し、yes/noの判断を求めた。
結果、GPT-4が最も高い性能を示し、品詞変換に優れた柔軟性を持つことが明らかになった。一方、Mistral 7Bは最小パラメータ数にもかかわらず、非典型的な品詞に対する柔軟性が高かった。モデルサイズ自体は性能の良さを必ずしも反映しないことが示された。
むしろ、各モデルの一般的な自然言語推論タスクの成績が、品詞変換タスクの成績を大きく決定していることが分かった。つまり、品詞変換に関する能力の差は、自然言語理解の基本的な能力の差に起因すると考えられる。
今後は、より多様な文脈を用いた検証や、より多くのモデルを対象とした分析が必要だと指摘されている。
Stats
英語の品詞変換は非常に広範囲に及ぶ現象である。
英語では、名詞が動詞として、形容詞が名詞として、動詞が名詞として使用されることがある。
Quotes
"英語では、何でも動詞化できる"
"品詞変換は、他の形態論的プロセスと同様のものである(ただし、明示的な接辞、アクセント変化、その他の形式的変化がない)"