核心概念
AI 技術の急速な発展に伴い、真正な情報と偽情報の見分けが困難になってきている。この問題に取り組むために、規制、技術、社会的な対応が必要とされている。
摘要
本稿では、AI 技術の発展に伴う課題と懸念事項について包括的に検討している。
- 序論
- AI 技術の急速な進化により、オンラインコンテンツの真偽の判別が困難になってきている
- IEEE p3395 ワーキンググループが AI 技術の安全性確保に向けた取り組みを行っている
- 本稿は、AI 技術に関する注目領域を特定し、今後の検討課題を提示する
- グローバルなアルゴリズムパイプライン - 重要インフラ
- アルゴリズムの障害による連鎖的な障害の可能性
- 2024年7月のCrowdstrikeのセキュリティアップデートの失敗事例を紹介
- 規制主体をめぐる議論
- 政府レベル、企業レベル、個人レベルの規制主体について検討
- 各主体の長所短所を考察
- 説明責任、匿名性、プライバシー
- AI 技術の利用における責任の所在
- 匿名性と表現の自由の関係
- プライバシー権と個人データ管理
- AI の悪用、誤用、不使用; 虚偽情報; データ毒殺
- 出力の出自: AIバイアスへの対応、トレーサビリティ、透明性
- 学術界
- AI 産業のエネルギー消費
- 汎用人工知能: 'アポカリプス'
- AI に関する悲観論
- 個人レベルでの課題への取り組み
- 議論
- 結論: 社会的組織