แนวคิดหลัก
대형 언어 모델은 주관적 과제에서 프롬프트의 증거를 무시하고 자신의 사전 지식에 의존하는 경향이 있다.
บทคัดย่อ
이 연구는 대형 언어 모델의 Chain-of-Thought(CoT) 프롬프팅이 주관적 과제에서 기존의 In-Context Learning(ICL)과 유사한 성능을 보인다는 것을 발견했다.
주요 내용은 다음과 같다:
- CoT 프롬프팅은 ICL과 마찬가지로 대형 언어 모델의 성능 향상에 도움이 되지 않는다. 특히 감정 인식과 도덕성 판단과 같은 복잡한 주관적 과제에서 두드러진다.
- 대형 언어 모델은 프롬프트에 제시된 증거에도 불구하고 자신의 사전 지식(reasoning prior)에 의존하는 경향이 있다. 이는 프롬프트에 추론 과정을 명시적으로 포함하는 CoT에서도 동일하게 관찰된다.
- 대형 모델이 생성한 추론 체인은 일관성 있고 합리적이지만, 모델의 예측은 여전히 사전 지식에 의해 크게 영향을 받는다.
이 결과는 대형 언어 모델이 주관적 과제에서 기존 방법보다 성능이 낮은 이유를 설명한다. 단순히 추론 과정을 명시하는 것만으로는 모델의 사전 지식 편향을 극복하기 어려움을 시사한다.
สถิติ
대형 언어 모델은 주관적 과제에서 ICL과 CoT 프롬프팅 간 성능 차이가 크지 않다.
대형 모델의 CoT 예측은 자신의 사전 지식(reasoning prior)과 유사도가 실제 정답보다 높다.
대형 모델이 생성한 추론 체인은 대체로 합리적이고 일관성 있다.
คำพูด
"대형 언어 모델은 프롬프트에 제시된 증거에도 불구하고 자신의 사전 지식에 크게 의존하는 경향이 있다."
"단순히 추론 과정을 명시하는 것만으로는 대형 언어 모델의 사전 지식 편향을 극복하기 어렵다."