機械学習モデルの予測に対する因果的説明を生成する際、変更される特徴の数を制限することで、より解釈しやすい説明を得ることができる。
概念活性化ベクトル(CAV)は、層間で一貫性がなく、他の概念と絡み合っており、空間依存性を持つ可能性がある。これらの特性は、CAVに基づく説明手法の解釈に影響を与える。
機械学習モデルの予測に対する説明は不確実である可能性があり、その不確実性を定量化する必要がある。本研究では、説明の不確実性を評価するためのサニティチェックを提案し、様々な手法の組み合わせに対してその有効性を示す。
ホワイトボックス説明手法は勾配情報に含まれる高周波ノイズのために性能が低下するが、適切なカットオフ周波数でフィルタリングすることで大幅に改善できる。