핵심 개념
대형 언어 모델 (LLM)의 전략적 사고 및 사회적 맥락 이해 능력을 소형 모델에 전이시키는 것이 가능하며, 이를 통해 효율성을 높일 수 있다.
초록
대형 언어 모델의 Theory of Mind 전이 학습: 소형 모델 효율성 향상을 위한 연구 논문 요약
참고 문헌: Lorè, N., Ilami, S., & Heydari, B. (2024). Large Model Strategic Thinking, Small Model Efficiency: Transferring Theory of Mind in Large Language Models. arXiv preprint arXiv:2408.05241v4.
본 연구는 대형 언어 모델(LLM)이 가진 전략적 사고 능력, 특히 Theory of Mind (ToM)를 소형 모델에 전이시켜, 계산 효율성을 높이면서도 유사한 성능을 달성할 수 있는지 확인하는 것을 목표로 한다.
연구진은 LLaMa2 모델군 중 700억 개 매개변수를 가진 대형 모델(LLaMa2-70b)과 70억 개 매개변수를 가진 소형 모델(LLaMa2-7b)을 사용했다. 먼저 LLaMa2-70b에 다양한 사회적 딜레마 게임 시나리오 20개를 제시하고, 각 시나리오에 대한 답변과 그 이유를 수집했다. 이후 수집된 데이터셋을 활용하여 LoRA 기법으로 LLaMa2-7b를 fine-tuning했다.
Fine-tuning된 소형 모델의 성능 평가는 기존 LLaMa2-70b 및 LLaMa2-7b 모델과의 비교를 통해 이루어졌다. 평가에는 fine-tuning에 사용된 시나리오와 더불어, 새로운 맥락과 게임 구조를 포함하는 out-of-sample 시나리오가 활용되었다.