核心概念
人工知能モデルの公平性を確保し、偏見を軽減することが重要である。研究者や実践者は、意図的または無意図的な差別を防ぐために、これらのモデルの公平性を高めるための様々な取り組みを行っている。
摘要
本論文は、人工知能システムの公平性を促進する様々な方法について概説している。
まず、公平性の定義について説明する。グループ公平性、個人公平性、分離指標、交差公平性、処理の平等、十分性指標、因果に基づく公平性など、さまざまな公平性の概念が存在する。
次に、機械学習パイプラインのさまざまな段階で生じる偏見について説明する。データ駆動型の偏見、人的な偏見、モデル偏見など、多様な偏見が存在する。
その上で、これらの偏見を軽減するための前処理、学習時処理、後処理の3つの一般的なアプローチについて詳述する。
さらに、犯罪司法、雇用、金融、医療、教育など、さまざまな分野における実際の事例を紹介し、人工知能モデルの不公平性がもたらす影響を示す。
最後に、公平性を促進し、偏見を軽減するための課題と限界について言及する。
统计
人工知能モデルを使用する分野では、人種、性別、障害などに基づく差別的な結果が報告されている。
例えば、犯罪予測モデルCOMPASは、黒人被告に対して高リスクを予測する一方で、白人被告に対しては低リスクを予測するなど、人種に基づく偏見が指摘されている。
採用プロセスにおいても、性別や人種に基づく偏見が見られ、一部の企業のアルゴリズムが特定のグループを差別していることが明らかになっている。
医療分野でも、性別や人種に基づく偏見を含むアルゴリズムが使用されており、正確な診断や治療に影響を及ぼしている。
教育分野では、COVID-19 禍における成績予測モデルが、特定の属性を持つ学生を不利に扱うなどの問題が指摘されている。
引用
"人工知能モデルは、私たちの生活のあらゆる側面で利用されるようになっている。しかし、これらのモデルは、生命に関わる決定を下すため、偏った結果は重大な問題となっている。開発者は、性別、民族、障害などに基づく予期せぬ差別的な実践が生じないよう、これらのモデルを確実に公平なものにする必要がある。"
"人工知能システムの普及に伴い、研究者や実践者は、不公平なモデルに対する意識が高まり、それらの偏見を軽減することを義務付けられている。"