この論文では、AI およびコンピューターサイエンスの文献を調査し、AI で実装可能な21の規範的倫理原則のタクソノミーを開発しています。各原則がこれまでどのように実装されてきたかを説明し、倫理的 AI システムの実装に取り組むプラクティショナーが認識すべき重要なテーマを強調しています。このタクソノミーは、責任あるAIシステムの推論能力に規範的倫理原則を組み込むためのメソドロジーの開発を促進すると考えられます。
倫理原則は、ある行動計画が倫理的であるために真でなければならない論理命題を示唆します。したがって、倫理原則を使用することで、倫理的ジレンマを体系的に考え、満足のいく結果を導くことができます。AI およびコンピューターサイエンスの文献では、さまざまな用途で倫理原則が活用されてきました。公平性の考慮を改善するためにバイナリ機械学習アルゴリズムに適用したり、特定のコンテキストで倫理的判断を下すエージェントの意思決定に組み込んだりしています。また、ジレンマの道徳的に関連する特徴を特定したり、AI のリスクと機会を検討する際のフレームワークとしても利用されています。
倫理原則を理解するためには、アプローチの多様性を通じて倫理的思考を育むことが重要です。学際的な視点を採用することで、認識論的な溝を埋めることができます。本論文のタクソノミーは、倫理的 AI の評価能力を向上させるのに役立つと考えられます。
לשפה אחרת
מתוכן המקור
arxiv.org
תובנות מפתח מזוקקות מ:
by Jessica Wood... ב- arxiv.org 09-12-2024
https://arxiv.org/pdf/2208.12616.pdfשאלות מעמיקות