要約
本研究は、26 人のテクノロジー企業の AI 倫理専門家へのインタビューを通して、AI 倫理実践の制度化とその製品への影響について調査しています。
組織的要因:
非公式な関係構築への依存と、製品チームとの関わり方が不明確で機会主義的
研究と工学の橋渡しが困難
コンテキスト依存的で一時的なツールや指標
制度化のための戦略:
大きな影響を持つ問題に優先順位を付ける
製品チームとの関わりを形式化する
モデルのドキュメンテーションとガバナンスを重視する
再利用可能なツールや指標を開発する
制度化の成功状態:
製品リリースプロセスの定義、ドキュメンテーション要件、優先順位付けのための概念的フレームワーク
中央のインフラストラクチャに組み込まれ、プラットフォーム全体や複数の製品で広く使用される再利用可能な技術コンポーネント
しかし、これらの戦略にもかかわらず、AI 倫理実践が製品の方向性に大きな影響を与えることは依然として困難です。これは、製品に対する権限の欠如、予測的な危害の伝達の難しさ、リーダーシップのサポートへの依存、倫理チームと製品チームの目標の対立などが原因です。
引用
"私たちには製品に対する責任がまったくなかった。そのため、AI を使っているすべてのチームが、私たちとどのように関わるかを見つけ出す必要があった。"
"この分野自体がまだ新しいので、私たちが解決しようとしている問題の多くは本当に新しいものです。"
AI 倫理実践の制度化を阻害する根本的な組織的要因は何か。
製品チームと AI 倫理チームの目標の対立をどのように解決できるか。
AI 倫理実践の影響力を高めるためには、企業の意思決定プロセスをどのように変革する必要があるか。