本論文は、機械学習モデルの予測に対する特徴の寄与を説明するシャプレー値の計算における、条件付きアプローチと周辺アプローチの比較を行っている。
まず、シャプレー値の概念と、機械学習モデルへの適用について説明している。シャプレー値は、協力ゲーム理論に基づいて各特徴の寄与を公平に分配する手法である。機械学習モデルの場合、特徴の組み合わせごとのモデル出力の変化を用いて、各特徴のシャプレー値を計算する。
条件付きアプローチと周辺アプローチは、特徴間の相関がある場合に異なる結果を導く。条件付きアプローチは、特徴を除外した際のモデル出力の条件付き期待値を用いるが、これは相関に基づいて因果関係を仮定しており、統計の基本原則に反する。一方、周辺アプローチは、特徴を除外した際のモデル出力の周辺期待値を用いるが、これは因果関係に基づいて正当化できる。
本論文では、条件付きアプローチが根本的に不適切であり、周辺アプローチが推奨されるべきであることを示している。これは、説明性は因果性に基づくべきであり、データや模型自体には因果情報が欠如しているためである。因果情報を明示的に組み込むことが、説明性の向上につながると結論付けている。
Na inny język
z treści źródłowej
arxiv.org
Głębsze pytania