この研究は、大規模言語モデル(LLMs)が人間の認知基盤を持たないにもかかわらず、言語ベースの記憶タスクでの人間のパフォーマンスを予測できることを示しています。ChatGPTの関連性評価が参加者と密接に一致し、ChatGPTの記憶性評価が実際に参加者の驚きのテストでの記憶パフォーマンスを予測したことが明らかになりました。シノニムを使用した信頼性チェックも行われ、結果が確認されました。この研究結果は、ChatGPTが人間と同じようなメカニズムで文脈情報を表現していることを初めて示しています。これは、LLMsが心理学研究に活用される可能性を強調します。
Para outro idioma
do conteúdo fonte
arxiv.org
Principais Insights Extraídos De
by Mark... às arxiv.org 03-11-2024
https://arxiv.org/pdf/2403.05152.pdfPerguntas Mais Profundas