이 논문은 대형 언어 모델(LLM)의 사고의 비약적 전환(Leap-of-Thought, LoT) 능력을 향상시키기 위한 방법을 제안한다.
먼저 Oogiri 게임 데이터셋인 Oogiri-GO를 구축하여 LLM의 LoT 능력을 평가한다. 실험 결과, 기존 LLM과 추론 프레임워크들은 Oogiri 게임에서 충분한 LoT 능력을 보여주지 못한다.
이에 따라 저자들은 Creative Leap-of-Thought(CLoT) 패러다임을 제안한다. CLoT는 두 단계로 구성된다:
To Another Language
from source content
arxiv.org
Key Insights Distilled From
by Shanshan Zho... at arxiv.org 04-23-2024
https://arxiv.org/pdf/2312.02439.pdfDeeper Inquiries