この研究は、大規模言語モデル(LLMs)が人間の認知基盤を持たないにもかかわらず、言語ベースの記憶タスクでの人間のパフォーマンスを予測できることを示しています。ChatGPTの関連性評価が参加者と密接に一致し、ChatGPTの記憶性評価が実際に参加者の驚きのテストでの記憶パフォーマンスを予測したことが明らかになりました。シノニムを使用した信頼性チェックも行われ、結果が確認されました。この研究結果は、ChatGPTが人間と同じようなメカニズムで文脈情報を表現していることを初めて示しています。これは、LLMsが心理学研究に活用される可能性を強調します。
Til et annet språk
fra kildeinnhold
arxiv.org
Viktige innsikter hentet fra
by Mark... klokken arxiv.org 03-11-2024
https://arxiv.org/pdf/2403.05152.pdfDypere Spørsmål