Kernekoncepter
AIを用いて患者の自己申告情報を検証するシステムは、患者と医療従事者の信頼関係を損ない、医療における不平等を悪化させる可能性がある。
Resumé
医療におけるAIを用いた「事実確認」システムの倫理的問題
本論文は、患者の自己申告情報を検証するためにAIを使用することの倫理的影響について考察している。特に、喫煙行動の予測を目的としたAIシステムを題材に、その問題点を指摘している。
AI、特にLLM(大規模言語モデル)は、患者の音声データやその他の医療データから、喫煙習慣などの社会行動を予測するために使用できる可能性がある。このようなシステムは、患者が申告した情報とAIの予測が矛盾する場合、医療従事者による「事実確認」のツールとして使用される可能性がある。
バイアスと不正確さ: AIモデルは、訓練に使用されたデータセットに存在するバイアスを反映する可能性があり、特定の患者集団に対して不正確な予測を行う可能性がある。
プライバシーの侵害: 患者は、自身の健康情報が診断や治療以外の目的で使用されることに同意していない場合があり、AIによる社会行動の検証はプライバシーの侵害と見なされる可能性がある。
信頼関係の損失: AIによる「事実確認」は、患者と医療従事者の間の信頼関係を損ない、患者が医療従事者に正直に情報を開示しなくなる可能性がある。