Core Concepts
Conformal prediction offers privacy-preserving uncertainty quantification in machine learning.
Abstract
現実世界の重要な意思決定において、機械学習システムの展開は信頼性のある不確実性の定量化と個人のプライバシー保護を必要とします。この記事では、これら2つの要求を同時に扱う枠組みが紹介されています。具体的には、予測モデルを拡張して予測セットを返す方法が提案され、プライバシー保護された予測セットを生成することが示されています。この手法は大規模なコンピュータビジョンデータセットで評価されました。
Stats
P{Y ∈ C(X)} ≥ 1 − α,
ϵ-differentially private (1 − α + O((nϵ)−1))-quantile of {si}n i=1, denoted ˆs
The coverage property in (1) holds.
ϵ-differentially private and satisfies 1 − α ≤ P{Y ∈ C(X)} ≤ 1 − α + O((nϵ)−1).
The prediction set function C(·) returned by Algorithm 1 is ϵ-differentially private and satisfies...
Quotes
"An individual to contribute a calibration data point without fear that the prediction sets will reveal their sensitive information."
"We provide an adjustment that masks the calibration dataset with additional randomness, addressing both privacy and uncertainty simultaneously."
"Our main contribution is a privacy-preserving algorithm which takes as input any predictive model together with a calibration dataset..."