AIの機能を説明することで、人間の意思決定者を支援できる。しかし、最も有用な説明は、意思決定の文脈によって異なる。ユーザースタディを通して、各課題に最適な説明を見出す必要がある。しかし、すべての説明と課題の組み合わせをテストするのは非現実的である。特に、説明の内容以外にも、人間とAIの協調に影響を与える多くの要因を考慮する必要がある。
本研究では2つの洞察を活用して、最も効果的な説明を効率的に見出す。第1に、説明はプロパティ(忠実性や複雑性など)によって特徴付けられ、それらはタスクに適した情報を含んでいるかを示す。第2に、XAIsim2realというパイプラインを導入し、合成ユーザースタディを実行する。検証研究では、XAIsim2realが実ユーザーの嗜好を正確に予測し、実ユーザースタディの前に説明選択を洗練するのに役立つことを示した。さらに、認知的予算の制限により、複雑な説明への関与が低下するといった微妙な関係性を明らかにした。
他の言語に翻訳
原文コンテンツから
arxiv.org
深掘り質問