이 연구는 인간과 대규모 언어 모델(LLM)의 비합리적 신념 수준을 비교하고, LLM의 합리성과 비합리성을 탐구하며, LLM을 활용하여 잘못된 신념을 바로잡는 방법을 제안한다.
주요 내용은 다음과 같다:
인간과 LLM의 비합리적 신념 수준을 평가하기 위해 PEUBI(Popular Epistemically Unwarranted Beliefs Inventory) 심리측정 도구를 사용하였다. 분석 결과, LLM이 인간보다 비합리적 신념을 더 잘 식별하는 것으로 나타났다.
LLM의 논리적 오류와 인지적 편향을 분석한 결과, LLM의 합리성이 불안정한 것으로 나타났다. 이는 LLM이 일관성 있게 합리적이지 않으며, 언어나 정보의 변화에 쉽게 영향을 받는다는 것을 의미한다.
인지 부조화 이론과 정교화 가능성 이론을 활용하여, LLM을 개인화된 오해 해소 도구로 활용하는 방법을 제안하였다. 이를 통해 LLM의 불안정한 합리성을 보완하고, 인간의 잘못된 신념을 바로잡는 데 도움이 될 수 있다.
To Another Language
from source content
arxiv.org
Key Insights Distilled From
by Sowmya S Sun... at arxiv.org 05-03-2024
https://arxiv.org/pdf/2405.00843.pdfDeeper Inquiries