Conceitos Básicos
潜在的な被害が大きいほど、リスクを真剣に受け止めるための基準は低くなるべきである。
Resumo
リスク管理の基本原則は、悪い方向に進む可能性がある方法を常に注意すること。
人工知能(AI)の存在リスクに関する最近の議論では、この安全原則が無視されている。
AIによる存在リスクへの対応は、短期的および長期的な両方のリスクを考慮する必要がある。
機関や個人は、重大な結果を考慮して行動すべきであり、失敗の結果が深刻であればその期待も高まる。
1. 導入
安全ルール:悪い方向に進む可能性がある方法を常に注意すること。
公共領域でのリスク管理における基本原則が容易に見落とされている。
2. AIと存在リスク
AIは人類に存在リスクをもたらすか?
現在のAI危険性への批判や議論
3. アイデアと提案
ポテンシャルダメージが大きい場合、リスクを真剣に受け止めるための基準は低くなります。
4. 新しいリスクへの対処
専門家からアドバイスを聞くことは重要。
専門家から聞きたくない情報も重要。
利害関係者もメッセージ送信者を尊重しない理由があるかもしれません。
5. 凍ったOリング
スペースシャトルチャレンジャー事故から学ぶこと
6. AGIは打ち上げ可能か?
チャレンジャーとAI間の違い
7. 二つの異議申立て
AIから生じる存在的危険性に対する適切な証拠提出基準
8. 軽率な危険行為?
Nature誌や他権威機関がAI危険性問題に対してどう反応したか
9. AIだけではない
新技術は新しい種類のリスクを生み出す可能性あり。AI自体もその一部かもしれません。