Core Concepts
XAIの文脈での説明を適用することは困難であり、代わりに理解可能なAIに焦点を当てるべきである。
Abstract
最近の論文では、科学的説明を機械学習に適用する試みが無駄であることが示されています。代わりに、理解可能なAIへのアプローチがより有益であることが提案されています。多くのXAI手法は実際には実用的な利益をもたらさず、カウンターファクチュアル手法はモデル依存性や条件不足から真正なカウンターファクトを提供していません。サロゲートモデルはMLシステムを理解するための有効なツールであり、その使用方法や特徴間の相互関係を把握することが理解の証拠です。
Stats
Hempel (1965) によれば、一般的な法則は特定事例へ言及すべきではない。
Letham et al. (2015) は医療専門家向けに決定リスト形式のインタープリータブル予測モデルを導入した。
Keane et al. (2021) の調査では、117本中36本(31%)しかユーザースタディーが含まれていなかった。
Quotes
"Understanding is achieved only when informational items are pieced together by the subject in question." - Kvanvig, 2003.
"A person’s understanding of the target model admits of degrees, depending on the person’s grasp of the connections displayed in the surrogate model." - Potochnik, 2017.