Core Concepts
AIは社会に大きな恩恵をもたらす一方で、深刻な危害も引き起こす可能性がある。本論文は、AIの地政学的リスクを分類し、欧州連合のAI法による当該リスクの緩和策を分析する。
Abstract
本論文は、AIの政治的影響に焦点を当てた分類法を提案し、欧州連合のAI法による規制措置を分析している。
まず、AIリスクに関する既存の分類法をレビューし、地政学的リスク、悪用、環境・社会・倫理的リスク、プライバシーと信頼の侵害の4つのカテゴリーからなる新たな分類法を提示した。
次に、2021年の欧州委員会提案から2024年の暫定合意に至る欧州連合のAI法の立法プロセスを分析した。提案では、リスクに応じた3つの規制カテゴリーが設けられ、高リスクシステムに対する事前適合性評価などの要件が定められた。最終合意では、一般目的AIモデルに関する新たなリスクカテゴリーが追加されるなど、一部修正がなされた。
しかし、オープンソースモデルの規制適用除外、高リスクAIシステムの定義基準の過度の緩和、軍事目的システムの規制対象外など、リスク全般への包括的な対応には課題が残されている。
Stats
AIシステムの開発には高い環境コストがかかる
60%の先進国の雇用がAIによる自動化の影響を受ける可能性がある
少なくとも64の国と欧州連合で2024年に選挙が行われる予定
Quotes
"技術的優位性を得られるのは、AIの分野でリーダーになれる国だ"
ウラジーミル・プーチン ロシア大統領
"AIによる偽情報の拡散が、最も深刻な即時的リスクだ"
世界経済フォーラム 2024年グローバルリスクレポート