核心概念
人工知能支援意思決定システムにおいて、倫理的で説明可能なAIを実現するには、人間の意思決定プロセスに合わせた理由、反事実、確信度の説明を提供する必要がある。
要約
本論文は、人工知能支援意思決定システム(AI-DSS)における倫理的で説明可能なAIの実現について論じている。
まず、現在のXAI(Explainable AI)研究では、AI-DSSの決定プロセスを透明化することで、ユーザーの信頼を得ようとしているが、ユーザーの理解度に合わせた適切な説明方法が明確ではないことを指摘する。
そこで著者らは、新たな理論「認識論的準パートナーシップ(EQP)」を提案する。EQPでは、AI-DSSをユーザーの認識論的パートナーとして位置づけ、ユーザーの自然な認識論的実践に合わせた3つの説明アプローチ(RCC)を推奨する:
- 理由(Reasons): AIの決定理由を説明する
- 反事実的対話(Counterfactuals): 状況の変化に応じてどのように決定が変わるかを示す
- 確信度(Confidence): AIの確信度を透明化する
これらの説明アプローチは、ユーザーの認識論的実践に合致し、信頼性の高い意思決定を支援することが実証研究から示されている。一方で、単なる人間化ではなく、AIとユーザーの準パートナーシップを構築することで、倫理的な課題にも対処できると論じている。
統計
AIの予測に対する人間の正解率と同程度であっても、AIの説明を提示することで人間の正解率が向上した。
AIの確信度を提示すると、人間の予測精度が向上した。
反事実的説明を提示すると、人間の予測精度が向上した。
原型説明は、反事実的シミュレーション能力を向上させた。
引用
"AI-DSSの効果的な利用には、ユーザーがそれらを信頼できると感じることが重要である。"
"XAIの使命は、AIの意思決定プロセスを透明化することで、システムが信頼できると認識されるようにすることである。"
"ユーザーが機械学習手法を十分に理解していないため、XAIは適切な説明方法を提供することができていない。"