이 논문은 대형 언어 모델(LLM)의 추론 능력 향상을 위한 체인 사고 프롬프팅 기술을 다룹니다.
체인 사고 프롬프팅은 LLM의 추론 능력을 향상시키는 주요 접근법이지만, 기존 방식은 단순한 추론 과제에 초점을 맞추어 저품질 및 일관성 없는 체인 사고 프롬프트를 생성합니다.
이에 대응하여 CoTGenius 프레임워크를 제안합니다. CoTGenius는 복잡화, 다양화, 구체화의 3가지 진화 전략과 진화 성공 판단 및 정확성 검증 필터링 메커니즘을 통해 우수한 체인 사고 프롬프트를 자동으로 생성합니다.
생성된 체인 사고 프롬프트 데이터로 Llama 2-Chat 7B 및 13B 모델을 fine-tuning하여 ChainLM 모델을 개발했습니다. ChainLM은 다양한 복잡한 추론 문제에서 기존 모델들보다 뛰어난 성능을 보입니다.
또한 누적 오류 문제를 해결하기 위해 단계별 토론 방식을 제안했습니다. 이 방식은 여러 에이전트가 각 추론 단계에 대해 토론하여 합의에 도달함으로써 중간 단계의 정확도를 높입니다.
In eine andere Sprache
aus dem Quellinhalt
arxiv.org
Wichtige Erkenntnisse aus
by Xiaoxue Chen... um arxiv.org 03-22-2024
https://arxiv.org/pdf/2403.14312.pdfTiefere Fragen