核心概念
本稿では、大規模言語モデルエージェント(LLMA)の解釈可能なモデルを構築し、それらが合理的経済主体としてどのように意思決定を行い、社会的学習を通じてどのように相互作用するかを分析する。
要約
大規模言語モデルエージェント(LLMA)のインタラクション:解釈可能なモデルと社会的学習
本稿は、大規模言語モデルエージェント(LLMA)の理論とアルゴリズムを、信号処理とミクロ経済学の手法を用いて開発した研究論文である。
本研究は、LLMAが解釈可能で信頼性の高い意思決定を行うための解釈可能なモデルと確率的制御アルゴリズムを開発することを目的とする。特に、LLMAが逐次的に相互作用し、ベイジアン推論を行うことを可能にするモデルとアルゴリズムの開発に焦点を当てる。
LLMAの解釈可能なモデル: 個々のLLMAを、限られた注意の下でのエージェントの意思決定プロセスを捉える、合理的注意力を持つベイジアン効用最大化装置としてモデル化する。さらに、このアプローチを、各エージェントがベイジアン効用最大化装置として機能する、ベイジアン社会学習に従事するLLMAのシーケンスに拡張する。
LLMAにおけるベイジアン社会学習: LLMAが互いに、そして環境と逐次的に相互作用しながらベイジアン推論を行うための解釈可能なモデルを、ベイジアン社会学習を利用して構築する。提案されたモデルは、相互作用するLLMAによって示されるハーディング行動を捉える。
ハーディングの遅延のための確率的制御: 相互作用するLLMAのバイアスに対処するため、LLMAのシーケンスがベイジアン社会学習に従事すると、同一の推定値に収束するか、「群れる」ことを示す。この現象に対処するため、プライバシーとハーディングのトレードオフのバランスをとる最適停止問題を定式化し、障害状態を検出するための確率的制御アプローチを提案する。