Alapfogalmak
民間人工知能(AI)の潜在的な悪用は、国内および国際的な安全保障に深刻な脅威をもたらす。
Kivonat
この記事は、民間人工知能(AI)の潜在的な悪用に焦点を当てています。既存のオープンソースAI技術がどのように誤用される可能性があるかを示し、政治、デジタル、物理的セキュリティを脅かす3つの使用例を開発しています。さらに、この記事では民間AIシステムの悪用がセキュリティに及ぼす影響とその防止策について議論しています。
Why civilian AI should not be neglected
- AI研究者や企業116社が2017年8月に公開書簡でレゴ兵器や現代兵器自律型兵器(LAWS)禁止を要求。
- AI技術が犯罪や軍事目的で使用される可能性に関心が高まっている。
- AI技術は商業部門で主要な研究資金を得ており、多くのアルゴリズムは軍事利用も想定されている。
Malicious Misuse of civilian AI
- 民間AI技術は軍事と市民目的両方で使用される可能性があり、それ故「二重利用」AI技術と呼ばれます。
- AI技術は意図された方法以外で誤用されることもあります。その中でも「悪意あるAI」という言葉が使われます。
- 悪意ある利用はセキュリティを脅かすため注意が必要です。
Possible Threats from available AI
- デジタルセキュリティ:AIによってデジタル攻撃が効率化され、規模と効果のトレードオフが解消されます。
- 政治セキュリティ:政治セキュリティへの攻撃手段としてAIが利用される可能性があります。
- 物理セキュリティ:物理的な攻撃手段も考えられ、AWSやLAWSだけでなくサイバー物理システムへの攻撃も含まれます。
Statisztikák
2017年に116人以上のAI研究者と企業からレゴ兵器やLAWS禁止を求める公開書簡が出されました。
2017年ストックホルム国際平和研究所はGGE(政府専門家グループ)に非国家行為者による市民技術武装化リスク防止策を調査するよう提案しました。
Idézetek
"Autonomous functions and systems disrupt businesses and increasingly enter our daily life."
"Malicious use of AI is the usage of AI technology to an end that threatens security."