核心概念
AIの使用により、ユーザーのタスクパフォーマンスは向上するが、自己評価の正確性は低下する。
摘要
本研究では、AIを使用してLSAT論理問題を解く際のメタ認知モニタリングを調査しました。主な結果は以下の通りです:
- AIの使用により、参加者のタスクパフォーマンスは向上しましたが、自己評価は過大評価される傾向にありました。
- 従来観察されていたダニング-クルーガー効果(DKE)は、AIを使用した場合に消失しました。つまり、低パフォーマー群と高パフォーマー群の自己評価の差がなくなりました。
- AIリテラシーが高いほど、自己評価の正確性が低下しました。AIに関する知識が深いほど、自信は高いが正確性は低くなる傾向にありました。
- 質的データ分析の結果、参加者はAIを様々な方法で利用していることが明らかになりました。一部の参加者はAIを盲目的に信頼し、批判的に評価しない一方で、他の参加者はAIを補完的なツールとして活用していました。
以上の結果から、AIの使用はパフォーマンスを向上させる一方で、メタ認知モニタリングの低下を招くことが示唆されます。ユーザーがAIの能力と限界を適切に理解し、自身のパフォーマンスを批判的に評価できるようなインタラクションデザインが重要であると考えられます。
統計資料
参加者のAI使用時の平均正解数は12.98問(SD=2.88)であり、ChatGPT単体の平均正解数13.65問を下回っていた。
参加者のAI使用時の平均推定正解数は16.50問(SD=3.72)であり、実際の正解数を約4問過大評価していた。
正解時の平均自信度は82.49(SD=14.24)、不正解時の平均自信度は77.00(SD=16.52)であり、参加者は不正解を正解と過信する傾向にあった。
引述
"AIの使用により、ユーザーのタスクパフォーマンスは向上するが、自己評価の正確性は低下する。"
"従来観察されていたダニング-クルーガー効果(DKE)は、AIを使用した場合に消失した。"
"AIリテラシーが高いほど、自己評価の正確性が低下した。AIに関する知識が深いほど、自信は高いが正確性は低くなる傾向にあった。"