核心概念
체인 사고 프롬프팅은 대형 언어 모델의 추론 능력을 향상시킬 수 있는 주요 접근법이지만, 기존 방식은 단순한 추론 과제에 초점을 맞추어 저품질 및 일관성 없는 체인 사고 프롬프트를 생성한다. 이에 대응하여 CoTGenius 프레임워크를 제안하여 우수한 체인 사고 프롬프트를 자동으로 생성하고, 이를 활용해 ChainLM 모델을 개발하여 다양한 복잡한 추론 문제에서 뛰어난 성능을 보인다.
摘要
이 논문은 대형 언어 모델(LLM)의 추론 능력 향상을 위한 체인 사고 프롬프팅 기술을 다룹니다.
-
체인 사고 프롬프팅은 LLM의 추론 능력을 향상시키는 주요 접근법이지만, 기존 방식은 단순한 추론 과제에 초점을 맞추어 저품질 및 일관성 없는 체인 사고 프롬프트를 생성합니다.
-
이에 대응하여 CoTGenius 프레임워크를 제안합니다. CoTGenius는 복잡화, 다양화, 구체화의 3가지 진화 전략과 진화 성공 판단 및 정확성 검증 필터링 메커니즘을 통해 우수한 체인 사고 프롬프트를 자동으로 생성합니다.
-
생성된 체인 사고 프롬프트 데이터로 Llama 2-Chat 7B 및 13B 모델을 fine-tuning하여 ChainLM 모델을 개발했습니다. ChainLM은 다양한 복잡한 추론 문제에서 기존 모델들보다 뛰어난 성능을 보입니다.
-
또한 누적 오류 문제를 해결하기 위해 단계별 토론 방식을 제안했습니다. 이 방식은 여러 에이전트가 각 추론 단계에 대해 토론하여 합의에 도달함으로써 중간 단계의 정확도를 높입니다.
統計資料
체인 사고 프롬프트의 추론 단계 수가 증가할수록 모델의 정확도가 향상된다.
체인 사고 프롬프트의 구체성을 높이면 모델의 성능이 향상된다.
추론 과정 후 답변을 제시하는 논리가 추론 과정 전 답변을 제시하는 논리보다 성능이 우수하다.
引述
"체인 사고 프롬프팅은 LLM의 추론 능력을 향상시키는 주요 접근법이 되었지만, 기존 방식은 단순한 추론 과제에 초점을 맞추어 저품질 및 일관성 없는 체인 사고 프롬프트를 생성한다."
"CoTGenius는 복잡화, 다양화, 구체화의 3가지 진화 전략과 진화 성공 판단 및 정확성 검증 필터링 메커니즘을 통해 우수한 체인 사고 프롬프트를 자동으로 생성한다."
"ChainLM은 다양한 복잡한 추론 문제에서 기존 모델들보다 뛰어난 성능을 보인다."