Core Concepts
人工知能システムは倫理的な意思決定者ではなく、むしろ人間による政治的プロセスの結果として理解されるべきである。
Abstract
本論文は、人工知能(AI)システムの倫理的責任を分析する際の2つの主要な視点を提示している。
まず、機械論的な視点では、AIシステムは人間のように行動できると考えられるが、実際には倫理的責任を負うことはできない。なぜなら、AIには人間のような本来的な目的や動機がなく、単に与えられた情報に基づいて行動するだけだからである。
一方、意志的な視点では、人間の行為は自身の内面的な欲求や価値観に基づいて行われるものであり、AIにはそのような主体性がないため、倫理的な意思決定者とは見なせない。
そのため、著者らは、AIシステムを倫理的な主体として捉えるのではなく、人間による政治的なプロセスの結果として理解すべきだと主張する。具体的には、AIシステムの開発や利用における意思決定プロセスの正当性と、その結果としての正確性に着目すべきである。つまり、AIシステムの倫理性は、その開発プロセスの正当性と、特定の用途における正確性によって評価されるべきなのである。
Stats
人工知能システムには本来的な目的や動機がないため、倫理的責任を負うことはできない。
人間の行為は自身の内面的な欲求や価値観に基づいて行われるが、AIにはそのような主体性がない。
Quotes
「人工知能システムは倫理的な意思決定者ではなく、むしろ人間による政治的プロセスの結果として理解されるべきである。」
「AIシステムの倫理性は、その開発プロセスの正当性と、特定の用途における正確性によって評価されるべきなのである。」