Kernkonzepte
報酬学習中の行動は時間とともに変化し、探索から搾取への移行、そして最終的な減少的関与といった一連の戦略シフトが見られる。
Zusammenfassung
本研究では、混合エージェントのヒドゥンマルコフモデル(MoA-HMM)を用いて、ラットの二段階報酬学習課題における行動の動的変化を分析した。
行動は当初、モデル基盤の探索的戦略が優位だが、徐々にモデル基盤の搾取的戦略が優位になる。
その後、モデルフリーの固執的戦略が優位になり、課題への関与が減少する。
これらの戦略シフトは、反応時間や大脳眼窩前野の神経活動の変化を予測する。
従来の単一の混合エージェントモデルでは捉えられない動的な戦略変化を、MoA-HMMは明らかにした。
Statistiken
探索的な最初の状態では、モデル基盤の選択戦略の重みが最も大きい。
搾取的な中間の状態では、モデル基盤の報酬学習の重みが最も大きい。
関与が減少した最後の状態では、モデルフリーの固執的戦略の重みが最も大きい。
Zitate
"報酬学習中の行動は時間とともに変化し、探索から搾取への移行、そして最終的な減少的関与といった一連の戦略シフトが見られる。"
"従来の単一の混合エージェントモデルでは捉えられない動的な戦略変化を、MoA-HMMは明らかにした。"