核心概念
AIアクトは、非差別法の執行問題とアルゴリズムの公平性に関する技術的な課題の両方を解決する可能性がある。
要約
本論文では、非差別法と技術的なアルゴリズムの公平性の間の現在の不整合を概説し、EUのAIアクトがこれらの議論を融合させる重要なリンクとなる可能性について議論する。
まず、法的な観点から見ると、非差別法は個別の差別事例に対処するものの、アルゴリズムによる差別への適用には課題がある。特に、被害者が差別を認識し、立証することが困難であるという執行上の問題がある。
一方、技術的な公平性アプローチは、バイアスの検出や是正の方法を提供しているが、規範的な課題への解決策を提供するには限界がある。また、自己規制に頼るため、執行上の問題にも直面している。
AIアクトは、非差別要件を設計段階で実装することで、両者の課題を解決する可能性がある。しかし、具体的な法的要件を技術的な公平性要件に翻訳する必要があり、両分野の協力が不可欠である。
また、AIアクトは、公平性と プライバシーの緊張関係に対処するため、差別検出と是正のための個人データ処理を例外的に許可している。ただし、この公共の利益と個人の利益のバランスを取ることは難しい課題である。
統計
AIシステムは、犯罪リスク評価、採用、信用スコアリングなど、様々な社会的文脈で差別的傾向を示してきた。
非差別法の執行は、被害者が差別を認識し、立証することが困難であるため、常に課題となってきた。
アルゴリズムの公平性アプローチは、バイアスの定量化と是正に取り組んでいるが、規範的な課題への解決策を提供するには限界がある。
引用
"非差別法は個別の差別事例に対処するものの、アルゴリズムによる差別への適用には課題がある。特に、被害者が差別を認識し、立証することが困難であるという執行上の問題がある。"
"アルゴリズムの公平性アプローチは、バイアスの定量化と是正に取り組んでいるが、規範的な課題への解決策を提供するには限界がある。"