本論文では、AIエシックスの原則を実践的なAI/MLシステムに落とし込む際に生じる、基礎となる倫理的側面間の緊張関係を解決するための5つのアプローチを紹介し、分析している。
支配的な側面: 最も重要な側面を優先する単純な方法。実装が容易だが、バランスの取れた解決策を見出すことができない。
リスク削減: 倫理的側面の一部を犠牲にしてリスクを低減する方法。リスク評価が難しく、倫理的側面の侵害を十分に緩和できない可能性がある。
要求工学アプローチ: 倫理的側面、モデル、データタイプ間の相互作用を視覚的に分析する。設計段階から倫理的ジレンマを検討できるが、表現が複雑になりがちである。
定量的ランキング: 特性の重要度に応じて解決策を評価・ランク付けする。定量化が難しい特性を扱うのが課題となる。
プリンシプリズム: 倫理原則に基づいて解決策を検討し、6つの条件に照らして正当化する。原則の具体化と正当化の過程が重要だが、開発者の判断に依存する。
これらのアプローチにはそれぞれ長所と短所があり、単一のアプローチでは組織やシステムの全てに適切とは限らない。そこで本論文では、(1)事前の特定、(2)優先順位付けと重み付け、(3)正当化と文書化の3つの要素からなる、実践者レベルで適用可能な統合的なフレームワークを提案している。
他の言語に翻訳
原文コンテンツから
arxiv.org
深掘り質問