핵심 개념
연쇄 추론 프롬프팅은 대형 언어 모델의 추론 능력을 향상시킬 수 있는 주요 접근법이지만, 기존 방식은 단순한 추론 작업에 초점을 맞추어 저품질의 일관성 없는 프롬프트를 생성한다. 이에 따라 CoTGenius라는 새로운 프레임워크를 제안하여 우수한 연쇄 추론 프롬프트를 자동으로 생성하고, 이를 활용해 ChainLM이라는 향상된 추론 능력의 언어 모델을 개발하였다.
초록
이 논문은 대형 언어 모델(LLM)의 추론 능력 향상을 위한 연쇄 추론(Chain-of-Thought, CoT) 프롬프팅 기법을 다룹니다.
- 연쇄 추론 프롬프팅의 한계:
- 기존 연쇄 추론 합성 방식은 단순한 추론 작업에 초점을 맞추어 저품질의 일관성 없는 프롬프트를 생성함
- 이에 따라 복잡한 추론 작업에서 LLM이 어려움을 겪음
- CoTGenius 프레임워크 제안:
- 3가지 진화 전략(복잡화, 다양화, 구체화)과 2가지 필터링 메커니즘(진화 성공 판단, 정확성 검증)을 통해 우수한 연쇄 추론 프롬프트를 자동 생성
- 생성된 CoT 데이터셋을 활용해 Llama 2-Chat 7B, 13B 모델을 fine-tuning하여 ChainLM 모델 개발
- 단계별 토론 방식 제안:
- 중간 추론 단계의 오류 누적 문제를 해결하기 위해 다수의 LLM이 각 추론 단계에 대해 토론하여 합의에 도달하는 방식 제안
- 실험 결과:
- ChainLM 모델이 다양한 복잡한 추론 문제에서 기존 모델들을 크게 능가하는 성능 달성
- 데이터셋 구성 요소별 분석을 통해 각 추론 유형이 모델 성능에 미치는 영향 확인
통계
연쇄 추론 프롬프트 생성 시 추론 단계 수를 늘리면 모델 정확도가 향상된다.
연쇄 추론 프롬프트의 구체성을 높이면 모델 정확도가 향상된다.
연쇄 추론 프롬프트에서 답변 도출 후 추론 과정을 제시하는 것이 추론 과정 먼저 제시하고 답변을 도출하는 것보다 성능이 높다.
인용구
"연쇄 추론 프롬프팅은 대형 언어 모델의 추론 능력을 향상시킬 수 있는 주요 접근법이지만, 기존 방식은 단순한 추론 작업에 초점을 맞추어 저품질의 일관성 없는 프롬프트를 생성한다."
"우리는 CoTGenius라는 새로운 프레임워크를 제안하여 우수한 연쇄 추론 프롬프트를 자동으로 생성하고, 이를 활용해 ChainLM이라는 향상된 추론 능력의 언어 모델을 개발하였다."
"중간 추론 단계의 오류 누적 문제를 해결하기 위해 다수의 LLM이 각 추론 단계에 대해 토론하여 합의에 도달하는 방식을 제안하였다."