Główne pojęcia
本稿では、ガウス混合モデルの学習において、高いサンプル効率と強いプライバシー保証(近似微分プライバシー)を両立させるアルゴリズムを提案し、そのサンプル複雑度を理論的に解析している。
Streszczenie
ガウス混合モデルのサンプル効率の良いプライベート学習
Ashtiani, H., Majid, M., & Narayanan, S. (2024). Sample-Efficient Private Learning of Mixtures of Gaussians. arXiv preprint arXiv:2411.02298v1.
本研究は、近似的な微分プライバシーの制約下で、サンプル効率の良いガウス混合モデル(GMM)の学習アルゴリズムを開発し、そのサンプル複雑度を理論的に解析することを目的とする。