Core Concepts
Expected approximation ratio for DP algorithms must grow with metric space size.
Abstract
この記事では、差分プライバシー(DP)施設配置問題における期待近似率の改善に焦点を当てています。従来の最良の期待近似率はO(log n√ǫ)であり、新しい下限値が提案されました。これは、近似率がメトリック空間のサイズと共に増加する必要があることを示す初めての証拠です。施設配置問題は組合せ最適化の古典的な問題であり、プライバシーへの懸念からDP制約下で研究されています。アルゴリズムは隣接データセット上で実行された場合に出力分布が類似していることが求められます。
Stats
現在の最良知られている期待近似率はO(log n√ǫ)です。
最良知られている下限値はΩ(1/√ǫ)です。
任意のǫ-DPアルゴリズムの期待近似率に˜Ω(min(log n, q log n/ǫ))という新しい下限値が与えられました。
Quotes
"An algorithm is DP if, when running it on two adjacent datasets, the output distributions are similar."
"DP provides a rigorous privacy guarantee for the users’ data and enjoys several nice properties."
"Does the approximation ratio for DP SOFL in the super-set output setting have to grow with n?"