この研究では、200人の参加者を対象に、4つの代表的な機械学習の説明手法(モデルアーキテクチャ、決定境界の可視化、counterfactual explainability、特徴量重要度)の理解度を評価しました。
その結果、参加者は明確に示された情報を理解するのは比較的容易でしたが、説明に示されていない情報を認識するのは難しいことがわかりました。特に、特徴量重要度や決定境界の可視化といった、非常に理解しやすい説明手法では、参加者が説明に示されていない情報を過剰に解釈する傾向が強くみられました。一方、モデルアーキテクチャやcounterfactual explainabilityは理解しにくい一方で、誤解を招きにくいことがわかりました。
参加者は、明確に示された情報を正しく理解できた場合は自信を持っていましたが、説明に示されていない情報を誤って解釈した場合は過度に自信を持っていることがわかりました。
つまり、理解しやすい説明は誤解を招きやすい一方で、理解しにくい説明は誤解を招きにくいという、説明可能性の二面性が明らかになりました。機械学習モデルの説明を設計する際は、説明の範囲と限界を慎重に検討し、ユーザーの過剰解釈を抑制することが重要です。
Na inny język
z treści źródłowej
arxiv.org
Głębsze pytania