本論文では、AIモデルの信頼性と倫理的リスクを包括的に文書化するために、2019年に提案された「モデルカード」の「倫理的配慮」カテゴリを再分類する。
まず、「信頼性」カテゴリを新設する。ここでは、信頼できるAIの特性である信頼性、安全性、プライバシー、透明性、公平性、説明責任などについて詳述する。
次に、「倫理的配慮」カテゴリの下位項目を「リスク環境とリスク管理」カテゴリに移行する。このカテゴリでは、モデルが使用するデータの性質や、モデルの出力が人の生命に関わるような用途について検討する。また、リスクの特定と軽減策についても記述する。
この2つのカテゴリを設けることで、AIモデルの信頼性と倫理的リスクを包括的に文書化し、モデルの開発者、規制当局、エンドユーザーに有益な情報を提供することができる。
To Another Language
from source content
arxiv.org
Key Insights Distilled From
by DeBrae Kenne... at arxiv.org 03-26-2024
https://arxiv.org/pdf/2403.15394.pdfDeeper Inquiries