이 논문은 대형 언어 모델(LLM)의 추론 능력 향상을 위한 체인 사고 프롬프팅 기술을 다룹니다.
체인 사고 프롬프팅은 LLM의 추론 능력을 향상시키는 주요 접근법이지만, 기존 방식은 단순한 추론 과제에 초점을 맞추어 저품질 및 일관성 없는 체인 사고 프롬프트를 생성합니다.
이에 대응하여 CoTGenius 프레임워크를 제안합니다. CoTGenius는 복잡화, 다양화, 구체화의 3가지 진화 전략과 진화 성공 판단 및 정확성 검증 필터링 메커니즘을 통해 우수한 체인 사고 프롬프트를 자동으로 생성합니다.
생성된 체인 사고 프롬프트 데이터로 Llama 2-Chat 7B 및 13B 모델을 fine-tuning하여 ChainLM 모델을 개발했습니다. ChainLM은 다양한 복잡한 추론 문제에서 기존 모델들보다 뛰어난 성능을 보입니다.
또한 누적 오류 문제를 해결하기 위해 단계별 토론 방식을 제안했습니다. 이 방식은 여러 에이전트가 각 추론 단계에 대해 토론하여 합의에 도달함으로써 중간 단계의 정확도를 높입니다.
Sang ngôn ngữ khác
từ nội dung nguồn
arxiv.org
Thông tin chi tiết chính được chắt lọc từ
by Xiaoxue Chen... lúc arxiv.org 03-22-2024
https://arxiv.org/pdf/2403.14312.pdfYêu cầu sâu hơn