本論文では、人工知能(AI)システムのプライバシーに関する脅威について調査し、これらの脅威に対処するためのプライバシー保護技術(PET)の使用を提案している。
まず、データの使用に関する脆弱性について説明している。AIシステムは、トレーニングデータや推論時のデータの使用に大きく依存しているため、これらのデータの不正使用や漏洩が大きな問題となる。プライバシーと機密性の違いについても述べられている。
次に、内部者による脅威と外部者による脅威について詳しく説明している。内部者は意図的または偶発的にデータを漏洩する可能性があり、外部者は模倣攻撃やリバースエンジニアリングによってモデルの機密情報を抽出する可能性がある。
これらの脅威に対処するためのPETとして、信頼実行環境(TEE)、完全準同型暗号(FHE)、連合学習(FL)について紹介している。それぞれの特徴と適用場面について説明し、モデルの機密性と完全性を保護するためのPETの重要性を示している。
最後に、PETの評価フレームワークについて述べている。PETの適用可能性、システムへの影響、実装の準備状況を考慮する必要があることを指摘している。
他の言語に翻訳
原文コンテンツから
arxiv.org
深掘り質問