이 논문은 대규모 언어 모델(LLM)의 추론 능력 향상을 위한 새로운 프롬프팅 기법인 대조적 프롬프팅(CP)을 소개한다.
CP는 LLM에게 "정답과 오답을 제시하라"는 프롬프트를 제공하여, LLM이 자신의 오류를 인식하고 정확한 답변을 생성할 수 있도록 한다. 이를 통해 CP는 수학, 상식, 기호 추론 등 다양한 추론 과제에서 기존 방법들을 능가하는 성능을 보여준다.
실험 결과, CP는 산술 추론 과제에서 Zero-shot-CoT를 능가하고, 상식 추론 과제에서도 Zero-shot을 능가한다. 이는 LLM의 개별 지식에 대한 인식이 중요한 상식 추론 과제에서 CP가 효과적임을 보여준다. 또한 CP와 Zero-shot-CoT를 결합한 Zero-shot-CoT-CP는 대부분의 과제에서 더 나은 성능을 보인다.
翻譯成其他語言
從原文內容
arxiv.org
深入探究