Kernkonzepte
대규모 언어 모델의 논리적 추론 능력을 향상시키기 위해 입력 문맥에서 논리적 정보를 추출하고 확장하여 프롬프트에 통합하는 논리 기반 사고 프롬프팅 기법을 제안한다.
Zusammenfassung
이 논문은 대규모 언어 모델(LLM)의 논리적 추론 능력 향상을 위한 새로운 프롬프팅 기법인 논리 기반 사고(Logic-of-Thought, LoT) 프롬프팅을 제안한다.
LoT는 다음의 3단계로 구성된다:
논리 추출 단계: LLM을 사용하여 입력 문맥에서 명제와 논리적 관계를 추출한다.
논리 확장 단계: 추출된 논리 표현식을 논리 규칙을 통해 확장한다.
논리 번역 단계: 확장된 논리 표현식을 자연어 설명으로 번역하고, 이를 원래 프롬프트에 추가한다.
LoT는 기존의 프롬프팅 기법(Chain-of-Thought, Self-Consistency, Chain-of-Thought with Self-Consistency, Tree-of-Thoughts)과 호환되어 이를 보완할 수 있다. 실험 결과, LoT는 다양한 논리 추론 데이터셋에서 기존 프롬프팅 기법의 성능을 크게 향상시켰다. 예를 들어, LoT+CoT는 ReClor 데이터셋에서 CoT 대비 +4.35% 향상, LoT+CoT-SC는 LogiQA에서 CoT-SC 대비 +5% 향상, LoT+ToT는 ProofWriter에서 ToT 대비 +8% 향상을 보였다.
Statistiken
모든 책에는 많은 지식이 포함되어 있다.
사람이 책을 읽으면 그 사람은 지식을 얻게 된다.
사람이 지식을 얻으면 그 사람은 더 똑똑해진다.