単純なニューラルネットワークは、モジュラー加算問題を学習する際に、埋め込みベクトルがグリッド状や円状の構造を形成することで解釈可能なアルゴリズムを獲得する。
本稿では、ニューラルネットワークの線形層をマハラノビス距離と関連付けることで、活性化関数を統計的距離尺度から解釈する新たな枠組みを提案し、解釈可能性の向上を目指しています。
本稿では、従来のアフィン変換を用いたニューラルネットワークの解釈性の低さを指摘し、代わりに計量に基づく変換を用いることで、より解釈性の高いニューラルネットワークを実現できる可能性を示唆している。
深層学習モデルの解釈可能性を高めるためには、人間の視覚的顕著性と整合した訓練方法が不可欠であり、アクティブラーニングを用いたSAL手法は、アノテーションの労力を大幅に削減しながら、人間の視覚的顕著性を取り入れた、より解釈可能で信頼性の高いモデルの構築を実現する。
TRACERは、ディープニューラルネットワーク(DNN)の意思決定プロセスを理解するための、因果推論に基づいた新しい説明可能なAI手法である。
ニューラルネットワークの予測を説明するために、中間層の活性化パターンから関連性の高い部分空間を抽出する。これにより、予測に寄与する複数の要因を分離して表現することができる。
ニューラルベースの音響モデルが異種な情報を保持し、上位層は無用な情報を削除することが示唆される。