Concetti Chiave
LLMとMCTSの統合により、効率的な決定を可能にする革新的手法を紹介します。
Sintesi
大規模言語モデル(LLMs)はインターネットからの膨大なデータを活用し、前例知識の幅広いスペクトラムを保持しています。LLMsは意思決定支援として有益である一方、推論力や幻想現象などの制限によって信頼性が損なわれています。一方、Monte-Carlo Tree Search(MCTS)は確実な意思決定ソリューションを提供するヒューリスティック探索アルゴリズムです。この研究では、LLMsをMCTS自己対局と組み合わせて、チェスや囲碁などの決定論的ターンベースの零和ゲーム(DTZG)を効率的に解決する革新的手法を紹介します。
具体的には、LLMsをアクションプルーナーおよび値関数の代理として利用し、追加トレーニング不要でチェスや囲碁などの課題に取り組みます。理論的分析では、提案手法の推定値の非最適性がシミュレーション数Nに比例し、LLMsがアクションプルーナーおよび値関数代理として発生するエラーまでO(| eA|√N)であることが示されています。実験では、チェスパズルやMiniGoなどで提案手法が従来手法を圧倒しました。
Statistiche
LLMSはインターネットから広範囲な前例知識を活用している。
MCTSは確実な意思決定ソリューションを提供する。
提案手法ではLLMsがアクションプルーナーおよび値関数代理として機能する。
シミュレーション数Nに応じて推定値の非最適性が変化する。
Citazioni
"Large Language Models (LLMs) harness extensive data from the Internet, storing a broad spectrum of prior knowledge."
"We utilize LLMs as both action pruners and proxies for value functions without the need for additional training."
"Our experiments in chess and go demonstrate the capability of our method to address challenges beyond the scope of MCTS."