Core Concepts
大規模言語モデルと認知アーキテクチャを組み合わせることで、効率的な学習が可能である。
Abstract
この研究では、大規模言語モデル(LLM)による世界の一般的な知識と、柔軟性の高い認知アーキテクチャを組み合わせて、キッチンタスクを行う具体的なエージェントを構築する方法が提案されています。LLMは一般的な知識生成に責任を持ち、認知アーキテクチャはその生成された知識を環境に適用する役割を果たします。この統合フレームワークは、情報生成と情報適用を分離し、汎化の鍵となります。実験結果から、ブートストラップされたエージェントは新しい環境に適用する際に非常に効率的であり、LLMへの依存度が低くコスト削減につながることが示されています。
Stats
15.67ステップでfind a/an <object>タスク完了(action-only)
916.87トークンでfind a/an <object>タスク完了(bootstrapped)
28.20ステップでslice a/an <object>タスク完了(action-only)
0.00トークンでslice a/an <object>タスク完了(bootstrapped)
5.13ステップでclear the countertopsタスク完了(action-only)
0.00トークンでclear the countertopsタスク完了(bootstrapped)
Quotes
"Large language models are a good source of information for cognitive architectures."
"Our proposed framework yields better efficiency compared to an agent based entirely on large language models."
"The contribution of this paper is threefold: we propose an agent framework that combines LLMs with customized cognitive architecture, demonstrate how it can learn to perform various kitchen tasks from bootstrapping, and show that it requires significantly fewer tokens than querying LLM for actions."