本稿では、大規模言語モデル(LLM)および対話型AIであるChatGPTが社会に与える影響について、人間中心主義的な従来のAI評価の限界を指摘し、社会中心主義的な枠組みの必要性を論じている。
従来のAI評価では、バイアス、有害性、「ハルシネーション」といった、個人に対するリスクや安全性の観点からの評価が中心であった。しかし、ChatGPTのような社会規模のテクノロジーは、社会集団、制度、規範、慣習にも影響を与えるため、個人レベルの評価だけでは不十分である。
本稿では、ChatGPTによって引き起こされた3つの「破壊的イベント」を事例として、社会中心主義的なAI評価の重要性を示している。
オーストラリアのブライアン・フッド氏が、ChatGPTによって過去の汚職事件への関与に関する虚偽の情報を拡散されたとして、OpenAI社を相手取り名誉毀損訴訟を起こした事例。この事例は、AIが生み出した虚偽情報に対する法的責任を問うものであり、AI開発における透明性と説明責任の重要性を示唆している。
ChatGPTを用いた盗用が教育機関で問題となっており、剽窃検出ソフトTurnitinの有効性が問われている。この事例は、AI技術の進歩が教育機関の評価システムに根本的な変革を迫る可能性を示唆しており、新しい評価方法の開発や教育倫理の再構築が求められている。
従業員が業務でChatGPTを使用する際に、企業秘密や個人情報などの機密情報を入力してしまうケースが増加しており、企業はデータプライバシーの保護に頭を悩ませている。この事例は、AIの利用が職場環境における情報管理やセキュリティ対策に新たな課題を突きつけていることを示唆しており、企業はAI利用に関する明確なガイドラインを策定し、従業員への教育を徹底する必要がある。
これらの事例は、AI開発において、個人レベルの倫理だけでなく、社会全体への影響を考慮した社会中心主義的なアプローチが不可欠であることを示している。AI研究者や開発者は、社会科学者や倫理学者と連携し、AI技術が社会に与える影響を多角的に評価し、潜在的なリスクを軽減するための対策を講じる必要がある。
他の言語に翻訳
原文コンテンツから
arxiv.org
深掘り質問