핵심 개념
대형 언어 모델은 인간 유아와 유사한 수준의 억제 통제 능력을 가지고 있어, 이전에 학습한 단순한 패턴에 의해 영향을 받아 새로운 상황에서 올바른 추론을 하지 못한다.
초록
이 연구는 대형 언어 모델(LLM)의 억제 통제 능력을 평가하기 위해 인지 과학의 A-Not-B 실험을 언어 기반 다중 선택 문제 해결 시나리오로 적용했다. 실험 결과, 최신 LLM(예: Llama3-8b)은 문맥 학습(ICL) 상황에서는 일관되게 잘 수행하지만, 문맥이 사소하게 변경되면 최대 83.3%의 성능 저하를 보이며 오류를 일으켰다. 이는 LLM이 유아와 유사한 수준의 억제 통제 능력만을 가지고 있음을 시사한다.
모델 크기, 프롬프트 예시 수, 추론 과제 유형 등이 LLM의 A-Not-B 오류에 영향을 미치는 것으로 나타났다. 더 큰 모델과 더 나은 사전 학습 데이터를 가진 모델이 이 오류에 더 강한 것으로 확인되었다. 또한 자기 설명 기법을 사용해도 이 오류를 완전히 극복하지 못했다. 이는 LLM의 추론 과정에 근본적인 차이가 있음을 시사한다.
통계
최대 83.3%의 성능 저하가 관찰되었다.
더 큰 모델(Llama3-70b)은 평균 8.7%의 성능 저하를 보인 반면, 더 작은 모델(Llama3-8b)은 평균 20.8%의 성능 저하를 보였다.
수학 추론 과제에서 가장 큰 성능 저하가 관찰되었다.
인용구
"LLMs only have inhibitory control abilities on par with human infants in this regard, often failing to suppress the previously established response pattern during ICL."
"This suggests that LLMs only have inhibitory control abilities on par with human infants in this regard, often failing to suppress the previously established response pattern during ICL."