本研究は、大規模言語モデル(LLM)と人間の間の合理性の違いを探究しています。
まず、LLMsの性能を心理測定テスト(PEUBI)を用いて評価しました。その結果、LLMsは人間よりも論理的誤りを検出する能力が高いことがわかりました。しかし、LLMsの合理性は不安定で、矛盾した振る舞いを示すことも明らかになりました。
次に、LLMsの論理的誤りと認知バイアスについて詳しく分析しました。LLMsは人間のような情動や社会的文脈を持たないため、これらの要因による影響は受けません。しかし、LLMsが人間作成のデータに基づいて訓練されているため、人間の特性が反映されている可能性があります。
この不安定な合理性を「不安定な合理性」と呼び、LLMsの言語に基づく合理性を表す概念として提案しました。この概念は、LLMsの合理性が容易に崩れることを示唆しています。
最後に、LLMsを説得のエージェントとして活用する方法を提案しました。認知的不協和理論と精緻化可能性理論に基づいて、LLMsが人間の誤った信念を修正する対話例を示しました。ただし、LLMsの合理性の不安定さを考慮し、慎重な設計と人間による監視が必要であることを強調しました。
他の言語に翻訳
原文コンテンツから
arxiv.org
深掘り質問