本研究は、大規模言語モデルの質問応答タスクにおいて、人間生成と機械生成の説明の有効性を比較・評価することを目的としている。
まず、40人の参加者から、テキストベースと視覚的な説明を収集した。人間生成の説明は、ソーステキストからの抜粋が多く、誤りを支持する説明も見られた。一方、機械生成の説明(保守的LRP、積分勾配、ChatGPT)は人間生成のものとは大きく異なっていた。
次に、136人の参加者を対象に、人間生成と機械生成の説明の有効性を比較する実験を行った。その結果、AI の回答の正誤が大きな影響を及ぼし、正解に対する説明は有用性、質、満足度が高かった。また、人間生成のサリエンシーマップは機械生成のものよりも有用と評価された。しかし、全体的な満足度や AI への信頼度では差が見られなかった。
つまり、「良い」説明であっても、AI の誤りを支持してしまう可能性があり、人間-AI 協調タスクでは、パフォーマンスの低下につながる可能性が示唆された。また、参加者は説明の関連性をサリエンシーマップ自体で直感的に評価しようとする傾向が見られた。
翻譯成其他語言
從原文內容
arxiv.org
深入探究