핵심 개념
LLM의 복잡한 추론 작업 능력을 향상시키는 새로운 접근 방식 소개
초록
대형 언어 모델(Large Language Models, LLMs)의 발전이 복잡한 추론 작업에서의 능력을 향상시키는 Chain of Thought (CoT) 접근법에 주목을 끌었다.
멀티모달 작업에 대한 CoT 접근법의 중요성이 증가하고 있으며, 최적의 CoT 데모 예제 선택이 LLMs의 성능 향상에 중요하다.
이 논문에서는 검색 메커니즘을 활용하여 동적으로 데모 예제를 선택하는 새로운 접근 방식을 소개하며, Stratified Sampling 방법을 활용하여 다양성을 증가시키는 방법을 제시한다.
실험 결과는 ScienceQA와 MathVista 두 인기 있는 벤치마크 데이터셋에서 우리의 접근 방식이 GPT-4의 성능을 크게 향상시키는 것을 보여준다.
통계
우리의 접근 방식은 ScienceQA에서 GPT-4의 성능을 6% 향상시키고, MathVista에서 12.9% 향상시킨다.
또한, GPT-4V의 성능을 두 데이터셋에서 각각 2.7% 향상시킨다.
인용구
"우리의 접근 방식은 LLMs의 추론 능력을 향상시키는 데 중요한 역할을 한다."
"다양한 그룹에서 샘플링하여 LLMs에 다양한 예제를 제공함으로써 멀티모달 추론의 전반적인 품질을 향상시킨다."