이 논문은 대형 언어 모델(LLM)의 추론 능력 향상을 위한 체인 사고 프롬프팅 기술을 다룹니다.
체인 사고 프롬프팅은 LLM의 추론 능력을 향상시키는 주요 접근법이지만, 기존 방식은 단순한 추론 작업에 초점을 맞추어 저품질 및 일관성 없는 체인 사고 프롬프트를 생성합니다.
이에 대응하여 CoTGenius 프레임워크를 제안합니다. CoTGenius는 복잡화, 다양화, 구체화의 3가지 진화 전략과 진화 성공 판단 및 정확성 검증 필터링 메커니즘을 통해 우수한 체인 사고 프롬프트를 자동으로 생성합니다.
생성된 체인 사고 프롬프트 데이터로 Llama 2-Chat 7B 및 13B 모델을 fine-tuning하여 ChainLM 모델을 개발했습니다. ChainLM은 복잡한 추론 문제에서 기존 모델들보다 뛰어난 성능을 보입니다.
추론 단계의 누적 오류 문제를 해결하기 위해 단계별 토론 방식을 제안했습니다. 이 방식은 다수의 LLM 에이전트가 각 추론 단계에 대해 토론하여 합의에 도달하는 방식으로, 기존 방식보다 우수한 성능을 보입니다.
데이터 유형별 분석을 통해 각 추론 과제 유형에 따른 모델 성능 변화를 확인했습니다.
إلى لغة أخرى
من محتوى المصدر
arxiv.org
الرؤى الأساسية المستخلصة من
by Xiaoxue Chen... في arxiv.org 03-22-2024
https://arxiv.org/pdf/2403.14312.pdfاستفسارات أعمق