핵심 개념
대형 언어 모델 에이전트는 일반적으로 신뢰 행동을 보이며, 특히 GPT-4의 경우 인간의 신뢰 행동과 높은 행동 정렬을 보여, 인간의 신뢰 행동을 시뮬레이션할 수 있는 가능성을 시사한다.
초록
이 연구는 대형 언어 모델 에이전트의 신뢰 행동을 탐구하고, 이를 인간의 신뢰 행동과 비교하여 행동 정렬 정도를 분석하였다.
첫째, 대형 언어 모델 에이전트는 일반적으로 신뢰 게임 프레임워크에서 신뢰 행동을 보인다. 에이전트의 신념-욕구-의도(BDI) 모델링을 통해 에이전트의 의사결정 과정을 해석할 수 있었다.
둘째, 특히 GPT-4 에이전트의 신뢰 행동은 인간의 신뢰 행동과 높은 정렬을 보였다. 상호 호혜성 기대, 위험 인식, 친사회적 선호와 같은 신뢰 행동의 핵심 요인에서 에이전트와 인간이 유사한 패턴을 보였다. 또한 반복 신뢰 게임에서 에이전트의 신뢰 행동 동학도 인간과 유사하게 나타났다.
셋째, 에이전트 신뢰 행동은 인구통계학적 편향, 인간에 대한 상대적 선호, 강화보다 약화가 용이, 추론 전략에 의해 영향을 받는 등의 내재적 특성을 보였다.
이러한 발견은 대형 언어 모델, 특히 GPT-4를 활용하여 인간의 신뢰 행동을 시뮬레이션할 수 있는 가능성을 시사하며, 더 나아가 복잡한 인간 상호작용과 사회 구조를 모델링하는 데 기여할 것으로 기대된다. 또한 언어 모델과 인간의 근본적인 유사성에 대한 이해를 높일 수 있다.
통계
인간 참여자의 평균 신뢰 금액은 $5.97이다.
GPT-4 에이전트의 신뢰 금액은 $6.9로 인간 평균보다 높다.
Vicuna-7b 에이전트의 신뢰 금액은 $7.4로 가장 높다.
GPT-3.5-turbo-0613 에이전트의 신뢰 금액은 $3.5로 가장 낮다.
인용구
"LLM 에이전트는 일반적으로 신뢰 게임 프레임워크에서 신뢰 행동을 보인다."
"특히 GPT-4 에이전트의 신뢰 행동은 인간의 신뢰 행동과 높은 정렬을 보였다."
"에이전트 신뢰 행동은 인구통계학적 편향, 인간에 대한 상대적 선호, 강화보다 약화가 용이, 추론 전략에 의해 영향을 받는 등의 내재적 특성을 보였다."