核心概念
為了確保人工智慧系統以考慮人類價值觀和道德的方式做出或支持決策,需要採用宏觀倫理的觀點,並將規範性倫理原則納入推理能力中。
摘要
本文調查了人工智慧和計算機科學文獻中提出的倫理原則,並探討了這些原則如何被操作化。首先,我們提出了一個包含21個規範性倫理原則的分類法,涵蓋了去論、義務論、結果論等不同倫理理論。我們描述了每個原則如何被操作化,並強調了人工智慧從業者在實施這些原則時應該注意的關鍵主題。我們認為這個分類法將有助於開發將規範性倫理原則納入負責任人工智慧系統推理能力的方法論。
文章首先介紹了宏觀倫理的概念,解釋了為什麼將規範性倫理原則納入推理能力是實現負責任人工智慧的一步。接著,我們區分了倫理原則和人工智慧原則,並說明前者如何有助於實現後者。我們接著提出了一個包含21個倫理原則的分類法,並詳細描述了每個原則的定義、先前的應用以及可能遇到的困難。最後,我們識別了在人工智慧和計算機科學中操作化原則方面的現有差距,並提出了未來的研究方向。
統計資料
人工智慧系統必須能夠做出或支持考慮人類價值觀和道德的決策。
採用宏觀倫理的觀點,從整體的角度看待倫理,包括社會背景。
規範性倫理原則可用於有條理地推理倫理並做出倫理判斷。
本文提出了一個包含21個規範性倫理原則的分類法,涵蓋了去論、義務論和結果論等不同倫理理論。
描述了每個原則如何被操作化,並強調了實施時應注意的關鍵主題。
這個分類法有助於開發將規範性倫理原則納入負責任人工智慧系統推理能力的方法論。
引述
"為了確保人工智慧系統以考慮人類價值觀和道德的方式做出或支持決策,需要採用宏觀倫理的觀點,並將規範性倫理原則納入推理能力中。"
"規範性倫理原則可用於有條理地推理倫理並做出倫理判斷。"
"這個分類法將有助於開發將規範性倫理原則納入負責任人工智慧系統推理能力的方法論。"