本論文は、説明可能な人工知能(XAI)における因果的説明(Counterfactual Explanations)の設計について議論している。
因果的説明は、入力の変更によって出力がどのように変化するかを示すことで、AI システムの意思決定プロセスを明らかにする手法として注目されている。しかし、従来の研究では、ユーザーの目的や対象分野の違いを十分に考慮せずに一律のアプローチを取ることが多かった。
本論文では、ユーザーの3つの主な目的 - 1) 目的の達成、2) システムの調査、3) 脆弱性の検出 - に着目し、それぞれの目的に応じて因果的説明に求められる特性が大きく異なることを示している。
具体的には、目的の達成には「実行可能性」と「現実性」が重要であるのに対し、システムの調査では「現実性」のみが重要で「実行可能性」は必要ない。一方、脆弱性の検出では、「実行可能性」と「現実性」の両方を無視してもよい場合がある。
このように、ユーザーの目的によって因果的説明に求められる特性が大きく異なるため、状況に応じた柔軟な設計アプローチが必要不可欠であると主張している。ユーザーの目的に合わせて因果的説明を最適化することで、XAIの有効性を高められると結論付けている。
翻譯成其他語言
從原文內容
arxiv.org
深入探究