Core Concepts
深層学習モデルの決定プロセスの透明性を高めることで、医療専門家が深層学習モデルの出力を理解し、受け入れやすくする。
Abstract
本研究では、深層学習モデルの決定プロセスの説明可能性を向上させるため、LIME Library及びLIME Image Explainerを用いた手法に、シナリオ固有のルールに基づくポストプロセシング機構を組み合わせた手法を提案した。
深層学習モデルを用いた脳腫瘍検出では、モデルの決定プロセスの透明性が課題となっている。
LIME Libraryを用いた手法では、セグメントと画像の意味的な解釈が一致しない問題や、入力画像の微小変化に対する説明の不安定性が指摘されている。
提案手法では、画像の形態学的特徴に基づいて LIME の出力を精緻化することで、より信頼性の高い説明を生成する。
実験の結果、提案手法は従来手法に比べて、腫瘍領域の説明カバレッジが大幅に向上することが示された。
一方で、脳領域の検出精度に課題があり、今後の改善が必要である。
Stats
提案手法を用いた場合、単一のセグメントでは腫瘍領域の27.63%をカバーするのに対し、3つのセグメントを用いると50.28%、5つのセグメントを用いると63.84%をカバーできる。
脳領域のカバレッジは、単一セグメントで11.02%、3つのセグメントで26.49%、5つのセグメントで39.03%である。
Quotes
"深層学習モデルの決定プロセスの透明性を高めることは、医療分野での適用において重要である。誤解を招く可能性があるため、深層学習モデルの出力を医療専門家が理解し、受け入れられるようにすることが不可欠である。"
"提案手法は、LIME Libraryの出力を精緻化することで、より信頼性の高い説明を生成することができる。実験の結果、腫瘍領域のカバレッジが大幅に向上したことが示された。"