Core Concepts
Post-Semantic-Thinking 전략은 대형 언어 모델의 추론 능력을 효과적으로 작은 학생 모델에 전달하여 특정 과제에 대한 학생 모델의 성능을 향상시킨다.
Abstract
이 논문은 대형 언어 모델(LLM)의 추론 능력을 작은 학생 모델에 효과적으로 전달하는 Post-Semantic-Thinking(PST) 전략을 제안한다. 기존의 prefix 메커니즘과 Pre-Thinking과 달리, PST는 먼저 답변-추론 순서를 목표 생성 순서로 사용하고, 추론을 어휘 공간이 아닌 숨겨진 의미 공간에서 생성한다. 이를 통해 PST는 추론에 존재하는 모델 환각에 강인할 뿐만 아니라 LLM의 추론 절차 뒤에 있는 핵심 추론 논리를 학습할 수 있다. 12개의 복잡한 추론 과제에 대한 광범위한 실험을 통해 PST의 효과성을 입증한다.
Stats
대형 언어 모델은 100억 개 이상의 매개변수를 가질 때만 추론 능력 향상 효과를 보인다.
기존 방법들은 추론 결과의 정확성이 추론 과정의 환각에 민감하거나, 추론 과정의 특정 표현에 의존적이다.
Quotes
"Post-Thinking은 답변을 먼저 생성하므로 추론 과정의 환각에 의해 영향을 받지 않으며, 답변 정보로 인해 추론 과정을 이해하기 쉽다."
"PST는 추론의 핵심 논리를 어휘 공간이 아닌 의미 공간에서 학습하므로, 추론 과정의 표현에 민감하지 않다."