이 연구는 대형 언어 모델 에이전트의 신뢰 행동을 탐구하고, 이를 인간의 신뢰 행동과 비교하여 행동 정렬 정도를 분석하였다.
첫째, 대형 언어 모델 에이전트는 일반적으로 신뢰 게임 프레임워크에서 신뢰 행동을 보인다. 에이전트의 신념-욕구-의도(BDI) 모델링을 통해 에이전트의 의사결정 과정을 해석할 수 있었다.
둘째, 특히 GPT-4 에이전트의 신뢰 행동은 인간의 신뢰 행동과 높은 정렬을 보였다. 상호 호혜성 기대, 위험 인식, 친사회적 선호와 같은 신뢰 행동의 핵심 요인에서 에이전트와 인간이 유사한 패턴을 보였다. 또한 반복 신뢰 게임에서 에이전트의 신뢰 행동 동학도 인간과 유사하게 나타났다.
셋째, 에이전트 신뢰 행동은 인구통계학적 편향, 인간에 대한 상대적 선호, 강화보다 약화가 용이, 추론 전략에 의해 영향을 받는 등의 내재적 특성을 보였다.
이러한 발견은 대형 언어 모델, 특히 GPT-4를 활용하여 인간의 신뢰 행동을 시뮬레이션할 수 있는 가능성을 시사하며, 더 나아가 복잡한 인간 상호작용과 사회 구조를 모델링하는 데 기여할 것으로 기대된다. 또한 언어 모델과 인간의 근본적인 유사성에 대한 이해를 높일 수 있다.
To Another Language
from source content
arxiv.org
Key Insights Distilled From
by Chengxing Xi... at arxiv.org 03-12-2024
https://arxiv.org/pdf/2402.04559.pdfDeeper Inquiries