本研究は、深層学習モデルの解釈性を高めるための新しい学習アプローチを提案している。従来の手法では、勾配ベースの可視化手法が雑音の影響を受けやすいという問題があった。
本手法では、標準的な勾配と誘導勾配の差異を最小化するための正則化項を損失関数に追加することで、勾配の質を向上させる。これにより、様々な可視化手法(Grad-CAM、Grad-CAM++、Score-CAM)の性能が向上することが示された。
具体的には以下の通り:
本手法は、勾配ベースの可視化手法の性能を向上させ、深層学習モデルの解釈性を高める新しいアプローチとして位置づけられる。
To Another Language
from source content
arxiv.org
Key Insights Distilled From
by Felipe Torre... at arxiv.org 04-24-2024
https://arxiv.org/pdf/2404.15024.pdfDeeper Inquiries