Core Concepts
人工知能研究における人間参加者の倫理的な取り扱いは重要であり、参加者の自律性、恩恵性、公正性、説明責任を尊重する必要がある。
Abstract
この論文は、人工知能(AI)研究における人間参加者の倫理的な取り扱いについて探っている。
まず、人間参加者の定義や、心理学、人間-コンピューター相互作用(HCI)などの関連分野からの教訓を概説する。その上で、AI研究には参加型デザイン、クラウドソーシングデータセット開発、企業の大きな役割といった固有の課題があり、これらに対応するためのガイドラインが必要であると指摘する。
次に、4つの倫理原則を提示する:
自律性 - 参加者の自発的な意思を尊重する
恩恵性 - 参加者の福祉を最大化し、危害を最小限に抑える
公正性 - 研究の負担と利益を公平に分配する
説明責任 - 研究プロセスと結果について説明責任を果たす
最後に、これらの原則に基づいた具体的なガイドラインを示す。研究の前、中、後それぞれの段階で実践すべき事項を解説している。
全体として、この論文は人工知能研究における人間参加者の倫理的な取り扱いについて、包括的な枠組みを提示している。
Stats
最近のAAIとNeurIPSの会議では、それぞれ12%と6%の論文が人間データの収集を報告している。
しかし、これらの論文の中で、倫理審査の詳細、インフォームド・コンセントの収集、参加者への補償について報告しているものは4分の1以下である。
Quotes
「人間と協調・協力できる機械を構築することは、重要な課題である」
「人工知能の高度化には、人間-機械相互作用の高度化が不可欠である」