書誌情報: Yu Lei, Hao Liu, Chengxing Xie, Songjia Liu, Zhiyu Yin, Canyu chen, Guohao Li, Philip Torr, Zhen Wu. (2024). FairMindSim: Alignment of Behavior, Emotion, and Belief in Humans and LLM Agents Amid Ethical Dilemmas. arXiv preprint arXiv:2410.10398v1.
研究目的: 本研究は、倫理的ジレンマに直面した際の人間と大規模言語モデル(LLM)エージェントの行動、感情、信念の違いを調査することを目的とする。具体的には、不公平な状況における利他的行動を促進する社会経済的動機(信念)と、これらの信念が個人の行動にどのように影響するかを分析する。
方法:
本研究では、不公平なシナリオを通じて倫理的ジレンマをシミュレートするプラットフォームであるFairMindSimを開発した。FairMindSimは、伝統的な経済ゲームを応用し、参加者は不公平な報酬配分を観察し、介入するか否かの判断を下す。実験には人間の参加者と、人間の性格特性を模倣するように設計されたLLMエージェントが参加した。LLMエージェントの行動は、Belief-Reward Alignment Behavior Evolution Model (BREM)を用いてモデル化された。BREMは、再帰的報酬モデル(RRM)に基づき、信念の進化と意思決定の関係を分析する。
主な結果:
結論:
本研究は、LLMエージェントが公平性と正義において高い信念を示す一方で、人間の行動は感情や状況によって複雑に変化することを示唆している。この結果は、AI alignmentの研究において、人間の複雑な社会心理学的要素を考慮することの重要性を強調している。
今後の研究:
A otro idioma
del contenido fuente
arxiv.org
Ideas clave extraídas de
by Yu Lei, Hao ... a las arxiv.org 10-15-2024
https://arxiv.org/pdf/2410.10398.pdfConsultas más profundas