要約
この研究は、大規模言語モデル(LLMs)が人間の認知基盤を持たないにもかかわらず、言語ベースの記憶タスクでの人間のパフォーマンスを予測できることを示しています。ChatGPTの関連性評価が参加者と密接に一致し、ChatGPTの記憶性評価が実際に参加者の驚きのテストでの記憶パフォーマンスを予測したことが明らかになりました。シノニムを使用した信頼性チェックも行われ、結果が確認されました。この研究結果は、ChatGPTが人間と同じようなメカニズムで文脈情報を表現していることを初めて示しています。これは、LLMsが心理学研究に活用される可能性を強調します。
統計
関連性評価は適合条件では高く、不適合条件では低かった。
適合条件ではガーデンパス文の記憶率が高く、不適合条件では低かった。
引用
"大規模言語モデル(LLMs)は、さまざまなタスクで顕著な能力を示しており、心理学科学に深い影響を与えています。"
"我々はChatGPTによって提供された関連性評価や記憶率が実際に参加者のパフォーマンスを予測することをテストしました。"