Core Concepts
医療画像におけるプライバシー保護AIモデルトレーニングは、診断精度と公平性を実現可能。
Abstract
医療データのプライバシー保護が重要であり、Differential Privacy(DP)が金標準。
プライバシー保護されたトレーニングは非プライベートよりも低い精度を示すが、年齢や性別への差別は大幅に増幅しない。
実際の臨床データセットでのプライバシー保護トレーニングは可能であり、優れた診断精度と公平性を実現することが示されている。
プライバシー保護技術の導入は、倫理的なAIアルゴリズムの展開に不可欠。
Abstract:
AIモデルは医療分野で広く使用されており、特に医療データのプライバシー保護が必要。
Differential Privacy(DP)を導入したプライバシー保護トレーニングは、診断精度や公平性への影響を評価。
プライバシー保護されたトレーニングでも高い診断精度と公平性が達成可能。
Introduction:
AIモデル開発では高い診断精度と倫理的責任が求められる。
DPなどの形式的なプライバシー手法が患者データを守る上で必要不可欠。
Data Pre-processing:
Stats here
Stats
大規模な臨床胸部X線画像データセット(N = 193,311)および腹部CT画像データセット(N = 1,625)を使用。
非プライベートCNNとプライバシー保存(DP)モデル間で比較。AUROCおよびPearson's rまたは統計的パリティ差を測定。