人工知能モデルには重大なプライバシーの脆弱性があり、それらは開発、展開、推論の各段階で発生する可能性がある。プライバシー保護技術(PET)を使用することで、これらの脆弱性に対処し、人工知能システムのプライバシーを保護することができる。
人工知能セキュリティ研究と実践の間には大きな隔たりがあり、研究で扱われる脅威モデルは実際の人工知能の使用や安全上のリスクを反映していない。このギャップを埋めるため、より実践的な脅威モデルの研究が必要である。