本論文では、AIモデルの信頼性と倫理的リスクを包括的に文書化するために、2019年に提案された「モデルカード」の「倫理的配慮」カテゴリを再分類する。
まず、「信頼性」カテゴリを新設する。ここでは、信頼できるAIの特性である信頼性、安全性、プライバシー、透明性、公平性、説明責任などについて詳述する。
次に、「倫理的配慮」カテゴリの下位項目を「リスク環境とリスク管理」カテゴリに移行する。このカテゴリでは、モデルが使用するデータの性質や、モデルの出力が人の生命に関わるような用途について検討する。また、リスクの特定と軽減策についても記述する。
この2つのカテゴリを設けることで、AIモデルの信頼性と倫理的リスクを包括的に文書化し、モデルの開発者、規制当局、エンドユーザーに有益な情報を提供することができる。
翻譯成其他語言
從原文內容
arxiv.org
深入探究