Core Concepts
소규모 언어 모델의 성능을 향상시키기 위해 자기 사후 설명 방법을 활용하여 자동으로 추론 과정에 대한 설명을 생성하고 이를 활용하는 방법론 Self-AMPLIFY를 제안한다.
Abstract
본 연구는 소규모 언어 모델(SLM)의 성능을 향상시키기 위해 자기 사후 설명 방법을 활용하는 Self-AMPLIFY 방법론을 제안한다. Self-AMPLIFY는 3단계로 구성된다:
성공 또는 오류 기반 샘플 선택 전략을 통해 SLM의 예측 결과에 기반하여 유망한 샘플을 선별한다.
선별된 샘플에 대해 KernelShap, DeepLift, Self_exp, Self_topk 등의 사후 설명 방법을 SLM에 직접 적용하여 자동으로 추론 과정에 대한 설명을 생성한다.
생성된 설명을 활용하여 최종 프롬프트를 구성하고, 이를 통해 SLM의 성능을 향상시킨다.
실험 결과, Self-AMPLIFY는 기존 방법론 대비 다양한 데이터셋과 SLM 모델에서 우수한 성능을 보였다. 특히 Self_exp 기반 설명 생성 방식이 가장 좋은 결과를 나타냈다. 이는 SLM 자체에서 생성한 자연어 설명이 효과적인 보조 신호로 작용함을 보여준다.
본 연구는 SLM의 성능 향상을 위해 자기 사후 설명 방법을 활용하는 최초의 시도로, 추가 프록시 모델 없이도 SLM 자체의 설명 생성 능력을 활용할 수 있음을 입증했다는 점에서 의의가 있다.
Stats
정답을 예측하는데 중요한 키워드는 ⟨word1⟩, ⟨word2⟩, ..., ⟨wordk⟩이다.
이 문제에 대한 3단계 추론 과정은 ⟨ϕ⟩이며, 따라서 정답은 ⟨y⟩이다.
Quotes
"The k keywords ⟨word1⟩, ⟨word2⟩,..., and ⟨wordk⟩are important to predict that the answer is ⟨y⟩."
"p-step rationale: ⟨ϕ⟩, therefore the answer is ⟨y⟩"