本研究は、LLMと人間が生成した議論の説得力を比較し、その背景にある要因を分析している。実験では、1,251人の参加者に56の主張と支持議論を提示し、主張への同意度の変化を測定した。その結果、LLMが生成した議論は人間のものと同程度の説得力を持つことが示された。
分析の結果、LLMが生成した議論は人間のものに比べて、文法的・語彙的複雑性が高く、認知的努力を要する。一方で、LLMは人間よりも道徳的言語を多く使用し、特に肯定的・否定的な道徳的要素を多く含んでいることが明らかになった。ただし、感情的な内容については両者に差はみられなかった。
これらの結果は、LLMが人間と同程度の説得力を持つ理由を示唆している。LLMは複雑な言語を使うことで読者の深い関与を促し、また道徳的・感情的な訴求力を活用することで説得力を高めていると考えられる。一方で、LLMの説得力の高さは、偽情報の拡散や世論操作などの悪用リスクも示唆しており、AI倫理や情報リテラシー教育の重要性が指摘される。
他の言語に翻訳
原文コンテンツから
arxiv.org
深掘り質問