Core Concepts
大規模言語モデルを用いて、トラベリング・セールスマン問題を解決することができる。ゼロショット学習、少量学習、思考連鎖などの手法を用いて、モデルのパフォーマンスを向上させることができる。さらに、モデルの微調整と自己アンサンブル手法を組み合わせることで、より優れた解決策を得ることができる。
Abstract
本研究では、大規模言語モデル(LLM)を用いてトラベリング・セールスマン問題(TSP)を解決する可能性を調査しています。
まず、ゼロショット学習、少量学習、思考連鎖などの手法を用いて、GPT-3.5 TurboモデルにTSPを解かせる実験を行いました。その結果、これらの手法を組み合わせることで、モデルのパフォーマンスを向上させることができることが分かりました。
次に、固定サイズのTSP問題インスタンスを使ってモデルを微調整し、同じサイズの問題や大きなサイズの問題に対する一般化性能を評価しました。微調整モデルは、同サイズの問題に対して良好な性能を示し、大きなサイズの問題にも一定の一般化性能を発揮しました。
さらに、微調整モデルのパフォーマンスをさらに向上させるため、自己アンサンブル手法を適用しました。この手法により、追加の微調整コストをかけずに、解の質を改善することができました。
以上の結果から、大規模言語モデルを用いてTSPを効果的に解決できることが示されました。特に、微調整とアンサンブル手法を組み合わせることで、非専門家でも高品質な解を得られる可能性が示唆されています。
Stats
最適解との差(gap)は37401513.78580033
無作為な解との比較(randomness score)は0.0