Keskeiset käsitteet
特徴ベースの説明は分配公平性を向上させる信頼できるメカニズムではない。
Tiivistelmä
この研究では、特徴ベースの説明がAI支援意思決定の分配公平性に及ぼす影響を詳細に分析しています。実験結果から、説明は意思決定の正確さや依存行動に影響を与えず、特徴ベースの説明が分配公平性を改善する信頼できるメカニズムではないことが示されています。
INTRODUCTION
- AIシステムは重要な領域で意思決定を支援するために一般的に使用されています。
- 多くの研究者や政策立案者は、アルゴリズムバイアスが不公平な意思決定をもたらすリスクに懸念を表明しています。
- 説明がAIシステムを理解可能にし、人間がアルゴリズムバイアスを軽減することができるという前提で必要性が主張されています。
BACKGROUND
- AIシステムはますます複雑かつ不透明になっており、研究者や政策立案者は人間により理解可能なよう説明する必要性を訴えています。
- しかし、多くの研究では説明が人々を惑わす可能性があることから批判されています。
- 先行研究では、説明が適切な依存行動を促進する際に有益であるかどうかも議論されています。
STUDY DESIGN
- 研究デザインでは、AI推奨事項とその説明文を見た参加者に14個のバイオグラフィー(bio)を1つずつ予測させました。
- 参加者は各バイオグラフィーごとに教授または教師かどうか予測しました。
- バイオグラフィーはCommon Crawlコーパスから取得したBIOSデータセットから選択されました。
Tilastot
特徴ベースの説明は分配公平性を向上させる信頼できるメカニズムではない。