本稿では、大規模言語モデル (LLM) の言語理解における形式(記号)と意味(意味するもの)の関係について、記号論と神経言語学の観点から考察する。
従来のLLMの評価は、心理言語学的パラダイムに基づき、モデルの出力確率を測定することで、モデルの行動やパフォーマンスを直接的に評価してきた。しかし、この方法は、LLMの統計的な偏りを反映しているに過ぎず、真の言語能力を正確に表していない可能性がある。
本研究では、LLMを神経言語学的対象として捉え、その内部表現を分析する新しいアプローチを提案する。具体的には、最小ペアと診断プロービングを組み合わせた新しい手法を用いることで、モデルの各層における形式と意味の表現を詳細に分析する。
英語、中国語、ドイツ語のLLMを用いた実験の結果、LLMは意味よりも形式を容易かつ早期に学習することが明らかになった。また、意味の理解度は形式の理解度と線形的な相関関係にあり、LLMの言語形式の理解が、意味理解に影響を与えることが示唆された。
LLMは、統計的なパターン認識に依存して意味を推論しており、人間のように形式と意味を独立して理解しているわけではない。人間のような知能に近づくためには、LLMは記号を現実世界の文脈に結び付け、真の理解の基盤を確立する必要がある。
LLMは言語形式の学習能力に優れている一方で、意味理解には限界があり、その意味理解は形式との統計的な関連性に大きく依存している。本研究は、LLMの言語能力に対する理解を深めるために、認知神経科学と記号論の観点から新たな視点を提供するものである。
Para outro idioma
do conteúdo fonte
arxiv.org
Principais Insights Extraídos De
by Liny... às arxiv.org 11-13-2024
https://arxiv.org/pdf/2411.07533.pdfPerguntas Mais Profundas