이 논문은 대형 언어 모델의 복잡한 추론 능력 향상을 위한 방법을 제안한다.
먼저 체인 사고 프롬프팅의 완성도, 구체성, 논리성 등 3가지 측면에 대한 실험적 분석을 수행하였다. 분석 결과, 추론 단계의 수가 많을수록, 추론 과정의 구체성이 높을수록, 그리고 답변 도출 전 추론 과정을 거치는 것이 성능 향상에 도움이 된다는 것을 확인하였다.
이를 바탕으로 CoTGenius 프레임워크를 제안하였다. CoTGenius는 복잡화, 다양화, 구체화 등 3가지 진화 전략을 통해 기존 체인 사고 프롬프팅 데이터를 개선하고, 진화 성공 판단과 정확성 검증 필터링 기법을 통해 고품질의 데이터를 생성한다. 이렇게 생성된 데이터로 Llama 2-Chat 모델을 fine-tuning하여 ChainLM 모델을 개발하였다.
또한 누적 오류 문제를 해결하기 위해 단계별 토론 방식을 제안하였다. 이 방식은 여러 에이전트가 각 추론 단계에 대해 토론하여 합의를 도출하는 방식으로, 기존 방식들에 비해 우수한 성능을 보였다.
실험 결과, ChainLM 모델은 다양한 복잡한 추론 과제에서 기존 모델들을 크게 능가하는 성과를 보였다. 또한 데이터 구성 요소별 분석을 통해 각 추론 과제 유형별 데이터의 중요성을 확인하였다.
Til et annet språk
fra kildeinnhold
arxiv.org
Viktige innsikter hentet fra
by Xiaoxue Chen... klokken arxiv.org 03-22-2024
https://arxiv.org/pdf/2403.14312.pdfDypere Spørsmål