본 논문에서는 대규모 언어 모델(LLM)이 복잡한 추론 작업을 효율적으로 수행하기 위한 새로운 프레임워크인 SMART(Self-learning Meta-strategy Agent for Reasoning Tasks)를 제안합니다.
본 연구는 LLM이 다양한 추론 작업에 대해 여러 전략 중 가장 효과적인 전략을 자율적으로 학습하고 선택할 수 있도록 하는 것을 목표로 합니다. 이는 인간이 경험을 통해 특정 작업에 최적화된 전략을 선택하는 방식을 모방한 것입니다.
SMART는 전략 선택 프로세스를 마르코프 결정 프로세스(MDP)로 모델링합니다. 여기서 LLM은 에이전트 역할을 하며, 주어진 문제에 대한 다양한 추론 전략을 시뮬레이션하고, 과거 결과를 기반으로 각 전략의 효과를 평가하여, 그에 따라 전략 선택을 조정합니다.
SMART는 강화 학습 기법을 사용하여 LLM이 예상 보상을 극대화하는 정책을 학습하도록 유도합니다. 이를 통해 LLM은 각 작업에 대한 최적의 전략을 선택하는 방법을 학습하게 됩니다.
본 논문에서는 다양한 추론 데이터셋과 LLM 아키텍처를 사용하여 SMART의 효과를 검증했습니다. 실험 결과, SMART는 LLM이 첫 번째 시도에서 최적의 전략을 선택하는 능력을 크게 향상시키는 것으로 나타났습니다. 특히, GSM8K 데이터셋에서 최대 15%의 정확도 향상을 보였으며, 이는 기존의 자기 개선 기법보다 우수한 성능입니다.
SMART는 LLM이 복잡한 추론 작업을 수행할 때 직면하는 전략 선택 문제에 대한 효과적인 솔루션을 제시합니다. 전략 선택 프로세스를 MDP로 모델링하고 강화 학습을 활용함으로써, SMART는 LLM이 자율적으로 가장 효과적인 추론 전략을 학습하고 적용할 수 있도록 합니다. 이는 반복적인 자기 개선에 대한 의존도를 줄이고, LLM의 정확성과 계산 효율성을 모두 향상시킵니다.
Til et annet språk
fra kildeinnhold
arxiv.org
Viktige innsikter hentet fra
by Rongxing Liu... klokken arxiv.org 10-22-2024
https://arxiv.org/pdf/2410.16128.pdfDypere Spørsmål