대규모 언어 모델(LLM)의 추론 능력은 전략 및 전술 주석을 통합하여 향상될 수 있으며, 이는 체스와 같은 복잡한 게임에서 더 나은 성능으로 이어진다.
LLM의 프롬프트 엔지니어링 및 아키텍처를 '메소드 액팅' 모델을 통해 개선하여 연결 퍼즐 풀이 성능을 향상시키고, 특히 o1-preview 모델에서 뛰어난 성능 향상을 보였다.
Kwai-STaR 프레임워크는 수학적 문제 해결 과정을 상태 전이 개념을 통해 모델링하여 LLM의 추론 능력을 향상시키는 방법을 제시합니다.
본 논문에서는 LLM이 주어진 질문에 대해 최적의 추론 행동을 스스로 선택할 수 있도록 하는 DOTS라는 새로운 접근 방식을 제안합니다.