Core Concepts
LLMエージェントは人間の信頼行動を高い行動適合性でシミュレートできる可能性がある。
Abstract
この研究では、大規模言語モデル(LLM)エージェントがTrust Gamesフレームワークにおける信頼行動を発現し、特にGPT-4において人間との高い行動適合性を示すことが発見されました。さらに、エージェントの信頼の固有の特性や異なるシナリオ下での影響も探求されました。これにより、LLMエージェントが人間との深い理解と協力関係を促進する可能性が示唆されました。
Introduction
LLMエージェントは社会科学分野で人間をモデル化するための効果的な手段として広く採用されています。
本研究では、LLMエージェントが人間の信頼行動を高い適合性でシミュレートできる可能性を明らかにしました。
Trust Behavior Analysis
LLMエージェントはTrust Gameフレームワーク内で信頼行動を示すことが発見されました。
GPT-4など一部のLLMエージェントは特に高い水準の信頼行動を示しました。
Intrinsic Properties of Agent Trust
エージェントの信頼はデモグラフィックバイアスや人間対エージェントへの相対的な傾向、推論戦略への影響など多様な要素に影響されます。
これらの結果から、LLMエージェントはデモグラフィックバイアスや推論戦略へ影響されやすく、強化よりも弱体化しやすいことが示唆されます。
Implications and Future Research
本研究結果は、LLMエージェントが人間と協力関係を築く際に重要な役割を果たす可能性があることを示しています。
将来的な研究では、価値適合以外の点でもLLMエージェントと人間との適合性に焦点を当てた研究が期待されます。
Stats
LLM agents can have high behavioral alignment with humans regarding trust behaviors, particularly for GPT-4.
Most LLM agents exhibit demographic biases in their trust behaviors.
LLM agents generally show a relative preference towards trusting humans over agents.
Quotes
"Most LLMs have a full understanding of the limit of the amount they can send in Trust Game."
"Agent trust can be influenced by reasoning strategies."
"It is generally easier to undermine agent trust than to enhance it."