Core Concepts
深層ニューラルネットワークの出力の解釈可能性を高めるため、層別関連性伝播の手法を改良し、特徴量の重要度を疎に表現する手法を提案する。
Abstract
本研究では、深層ニューラルネットワーク(DNN)の出力を説明する手法として、層別関連性伝播(LRP)を改良した手法を提案している。LRPは、ネットワークの各層で入力特徴量の重要度を伝播させることで、入力に対する予測の根拠を明らかにする手法である。
提案手法では、LRPによる関連性伝播の過程で、重要度の低い特徴量を積極的に削除(剪定)することで、より疎な(スパースな)説明を得ることを目指している。これにより、入力に対する予測の根拠を明確に示すことができ、特に高次元データ(ゲノムデータなど)の解釈に有効である。
提案手法には2つのバリエーションがある。PLRP-λは、剪定された関連性を残りの特徴量に比例配分する手法であり、PLRP-Mは、剪定された特徴量の関連性伝播を抑制する手法である。
実験では、画像分類とゲノム配列分類のタスクで提案手法を評価した。その結果、両手法ともに、LRPに比べて疎な説明を生成でき、かつ重要な特徴量への関連性集中が高まることが示された。特に、PLRP-λの方が優れた結果を示した。一方で、説明の忠実性については若干の低下が見られたものの、その程度は小さいことが確認された。
以上より、提案手法は深層ニューラルネットワークの出力の解釈性を高める有効な手法であると言える。
Stats
入力特徴量の重要度が高いほど、予測スコアの低下が早い
提案手法PLRP-λでは、LRPに比べて予測スコアの低下が早い
Quotes
高次元データでは、関連性の高い特徴量を見出すことが困難であり、提案手法が有効である
提案手法は、入力特徴量のみならず、中間層のニューロンの重要度も疎に表現できる