Core Concepts
LLMは人間と同程度の説得力を持っているが、その理由は認知的努力と道徳的・感情的言語の使用にある。
Abstract
本研究は、LLMと人間が生成した議論の説得力を比較し、その背景にある要因を分析している。実験では、1,251人の参加者に56の主張と支持議論を提示し、主張への同意度の変化を測定した。その結果、LLMが生成した議論は人間のものと同程度の説得力を持つことが示された。
分析の結果、LLMが生成した議論は人間のものに比べて、文法的・語彙的複雑性が高く、認知的努力を要する。一方で、LLMは人間よりも道徳的言語を多く使用し、特に肯定的・否定的な道徳的要素を多く含んでいることが明らかになった。ただし、感情的な内容については両者に差はみられなかった。
これらの結果は、LLMが人間と同程度の説得力を持つ理由を示唆している。LLMは複雑な言語を使うことで読者の深い関与を促し、また道徳的・感情的な訴求力を活用することで説得力を高めていると考えられる。一方で、LLMの説得力の高さは、偽情報の拡散や世論操作などの悪用リスクも示唆しており、AI倫理や情報リテラシー教育の重要性が指摘される。
Stats
LLMが生成した議論は人間のものに比べて、平均の文法的複雑性(Flesch-Kincaid得点)が13.26と高く、平均の語彙的複雑性(perplexity)も111.39と高かった。
LLMの議論は人間のものに比べて、平均の道徳的言語使用数が12.09と多く、特に肯定的道徳的要素(8.66)と否定的道徳的要素(3.43)の使用が多かった。
一方で、感情的な内容(sentiment score)には両者の差はみられなかった。
Quotes
"LLMは人間と同程度の説得力を持っているが、その理由は認知的努力と道徳的・感情的言語の使用にある。"
"LLMが生成した議論は人間のものに比べて、文法的・語彙的複雑性が高く、認知的努力を要する。一方で、LLMは人間よりも道徳的言語を多く使用し、特に肯定的・否定的な道徳的要素を多く含んでいる。"
"LLMの説得力の高さは、偽情報の拡散や世論操作などの悪用リスクも示唆しており、AI倫理や情報リテラシー教育の重要性が指摘される。"