本論文は、AI倫理をめぐるチームディスカッションにおいて、メンバーが批判を提起できる「権利」がどのように制限されるかを調査している。
まず、組織の技術至上主義的な規範により、批判的な意見が「否定的すぎる」と見なされがちであることを示した。次に、「範囲」の概念が、どのような倫理的懸念を正当なものとして扱うかを規定していることを明らかにした。具体的には、時間的な制約や技術的な解決志向、役割分担による倫理的懸念の「コンパートメント化」などが、議論の範囲を狭めている。
さらに、上司の存在、チームメイトの批判的な姿勢に対する認識、個人の属性(年齢、ジェンダー、専門性など)が、批判を提起する「権利」に影響を及ぼすことを示した。
最後に、ゲームを通じた議論では、偶然性の導入や仮想的な文脈設定によって、議論の範囲が拡大されることを明らかにした。一方で、ゲームの文脈と実際の業務の文脈の乖離から、ゲームでの議論が実際の変化につながりにくいことも指摘した。ただし、ゲームを通じてチームメイトの批判的な姿勢を理解し、将来の集団行動のための「同志」を見出すことができる可能性も示唆された。
To Another Language
from source content
arxiv.org
Key Insights Distilled From
by David Gray W... at arxiv.org 03-29-2024
https://arxiv.org/pdf/2403.19049.pdfDeeper Inquiries