Grunnleggende konsepter
提案された新しい手法、Adversarial Privacy-aware Perturbations on Latent Embedding (APPLE)は、医療画像セグメンテーションの公平性を向上させることができます。
Sammendrag
最近の医療アプリケーションにおけるディープラーニング(DL)モデルの強力な性能にもかかわらず、これらのモデルは異なる感敏属性を持つサブグループで不公平なパフォーマンスを示す可能性があることが認識されています。この問題を解決するために、Adversarial Privacy-aware Perturbations on Latent Embedding(APPLE)という新しい手法が提案されました。この手法は、元のモデルの重みを更新せずに展開済みセグメンターの公平性を向上させることができます。具体的には、潜在ベクトルに摂動を加えることで、公平関連の特徴がセグメンターのデコーダーに渡されないようにします。複数のセグメンテーションデータセットと5つのセグメンター(3つのU-Net風と2つのSAM風)で行われた実験は、提案された方法が他の不公平対策方法よりも効果的であることを示しています。
Statistikk
モデル改善率:平均7.35%増加
不公平度:最大4.68%低下
サービスエラー率:1.15%低下
標準偏差:1.77%低下
Sitater
"Ensuring fairness in deep-learning-based segmentors is crucial for health equity."
"By adding perturbation to the latent vector, APPLE decorates the latent vector of segmentors such that no fairness-related features can be passed to the decoder of the segmentors while preserving the architecture and parameters of the segmentor."
"Our contributions are four folds: We implement the first attempt at unfairness mitigation in medical segmentation where the parameters are fixed, which is more practical for medical applications."