核心概念
AI安全研究所は、高度なAIシステムの安全性評価に焦点を当てた、政府主導の技術機関として設立されたが、専門化による視野狭窄、既存機関との重複、産業界との関係性など、課題も抱えている。
要約
AI安全研究所: その特徴、機能、課題
近年、AI技術の急速な進歩に伴い、AIの安全性の確保が重要な政策課題として浮上しています。この課題に対処するため、新しい機関モデルであるAI安全研究所(AISI)が世界各国で設立されつつあります。本稿では、AISI、特に2023年から2024年にかけて設立された「第一波」と呼ばれるAISIの特徴、機能、課題について考察します。
AISIは、高度なAIシステム、特に基盤モデルの安全性に焦点を当てた政府機関です。AISIは、AIの安全性に関する技術的な専門知識を有し、エビデンスに基づいたアプローチを採用しています。
AISIの設立は、2023年11月に英国政府が主催したブレッチリーAI安全保障サミットがきっかけとなっています。サミットに参加した国々は、「ブレッチリー宣言」に署名し、AIの安全性を確保することの重要性を表明しました。