Core Concepts
대규모 언어 모델인 GPT-3.5 Turbo를 활용하여 외판원 문제를 해결하는 방법을 제시하고, 다양한 접근법을 통해 성능을 평가하였다.
Abstract
이 연구는 대규모 언어 모델(LLM)을 활용하여 조합 문제인 외판원 문제(TSP)를 해결하는 방법을 탐구하였다. GPT-3.5 Turbo 모델을 사용하여 다양한 접근법을 시도하였는데, 이는 제로샷 인-컨텍스트 학습, 소수 샷 인-컨텍스트 학습, 체인-오브-쓰잉크(CoT) 등이다. 또한 특정 문제 크기에 대해 모델을 fine-tuning하고, 다양한 크기의 문제에 대해 테스트하였다.
fine-tuning된 모델은 학습 인스턴스와 동일한 크기의 문제에서 우수한 성능을 보였으며, 더 큰 문제에 대해서도 일반화가 잘 되었다. 추가 학습 비용 없이 성능을 향상시키기 위해 self-ensemble 기법을 도입하였다.
Stats
모델의 해답 비용은 37,401,513.79이다.
최적 해답 비용은 알 수 없지만, 모델의 해답이 무작위로 생성된 것이 아님을 보여주는 randomness score는 0.05 미만이다.
모델의 해답과 최적 해답의 차이를 나타내는 gap 값은 계산할 수 없다.