核心概念
手術後合併症の予測に関する人工知能モデルの説明可能性と透明性を高めるための包括的なフレームワークを提案し、その実装プロトタイプを紹介する。
摘要
本研究では、手術後合併症の予測に関する人工知能モデルの説明可能性と透明性を高めるための包括的なフレームワークを提案した。このフレームワークは、「なぜ」、「なぜそうではないのか」、「どのように」、「もし変更したら」、「他にどのようなことが言えるか」の5つの重要な質問に答えることを目的としている。
具体的には以下のような手法を組み合わせて実装した:
- 局所的な特徴量重要度(LIME)や全体的な特徴量重要度(SHAP)による「なぜ」の説明
- 反事実的説明による「なぜそうではないのか」の説明
- モデルカードによる「どのように」の説明
- 対話型のインターフェースによる「もし変更したら」の説明
- 類似患者の予測結果による「他にどのようなことが言えるか」の説明
このフレームワークに基づいて開発したプロトタイプインターフェースは、手術後合併症の予測に関する人工知能モデルの説明可能性と透明性を大幅に向上させることができた。今後は、このフレームワークの臨床的な検証と、リアルタイムシステムの開発に取り組む予定である。
統計資料
手術の主要手順コードが13%の確率上昇をもたらす
体重減少の合併症が4%の確率上昇をもたらす
他の病院から転院した場合は2%の確率減少をもたらす
正常な血清カルシウム、血清カリウム、白血球数に改善すると、高リスク患者の確率が74%から49%に減少する
引述
「人工知能モデルのプロセスの説明可能性の欠如は、いわゆる「ブラックボックスモデル」と呼ばれる問題につながっている。」
「臨床現場で人工知能を活用する際、説明可能性と透明性は重要な原則である。」
「説明可能性の欠如により、医療従事者がモデルを信頼せず、有用なツールを活用しないリスクがある。」