核心概念
人間の脳からインスピレーションを受けたLLM-PFCアーキテクチャは、大規模言語モデルにおける計画能力を改善する可能性がある。
摘要
大規模言語モデル(LLMs)は、多様なタスクで印象的なパフォーマンスを示すが、多段階の推論や目標指向の計画が必要なタスクに苦労する。この研究では、人間の脳から着想を得て、専門的なPFCモジュールと相互作用するLLMベース(GPT-4)モジュールで構成されたブラックボックスアーキテクチャを提案している。このアーキテクチャは、グラフトラバーサル、ハノイの塔、物流といった3つの難しい計画タスクで評価され、従来のLLM方法や競合基準よりも優れた結果を示した。これらの結果は、認知神経科学から得られた知識を活用してLLMsにおける計画能力を向上させる利点を示している。
统计
LLMsは時々これらの機能を分離して実行できますが、目標達成のためにそれらを自律的に調整することが困難です。
LLM-PFCアーキテクチャは特定のPFCサブリージョンからインスピレーションを受けています。
LLM-PFCは3つの挑戦的な計画タスクで顕著な改善をもたらしました。
引用
"Large language models (LLMs) demonstrate impressive performance on a wide variety of tasks, but they often struggle with tasks that require multi-step reasoning or goal-directed planning."
"We propose a black box architecture with multiple LLM-based (GPT-4) modules."
"These results demonstrate the benefit of utilizing knowledge from cognitive neuroscience to improve planning in LLMs."