Core Concepts
대형 언어 모델은 인지 부하 하에서 선택 편향을 보상하는 경향이 있다.
Abstract
이 연구는 대형 언어 모델(LLM)의 선택 편향을 체계적으로 분석했다. 실험을 통해 온도, 리스트 길이, 객체 유형, 프롬프트 복잡성, 모델 등 다양한 변수가 선택 행동에 미치는 영향을 측정했다.
주요 결과는 다음과 같다:
- 원시성 편향(primacy bias)은 모델에 따라 크게 다르게 나타났다.
- 객체 유형과 위치에 따라 선택 확률이 크게 달라졌다.
- 모델 간 편향 패턴의 일관성이 없었다.
- 가드레일 적용 시 원시성 편향과 지침 준수가 크게 변화했다.
이를 바탕으로 연구진은 LLM이 인지 부하에 대해 보상적 행동을 보인다고 제안했다. 즉, 복잡한 프롬프트 구조에 직면할 때 편향을 증가시켜 인지 부하를 줄이는 것이다. 이는 LLM 활용 시 편향 완화를 위한 주의가 필요함을 시사한다.
Stats
리스트 길이가 5, 10, 15, 20, 26일 때 무작위 선택의 원시성 편향 확률은 각각 1.7%, 0.14%, 0.034%, 0.015%, 0.0064%이다.
gpt-3.5-turbo 모델은 온도가 높아질수록 원시성 편향이 감소하는 경향을 보였다.
claude-instant-1.2 모델은 온도가 높아질수록 원시성 편향이 증가하는 경향을 보였다.
Quotes
"LLM은 인지 부하에 대해 보상적 행동을 보인다. 즉, 복잡한 프롬프트 구조에 직면할 때 편향을 증가시켜 인지 부하를 줄이는 것이다."
"LLM 활용 시 편향 완화를 위한 주의가 필요하다."