最近の研究では、大規模言語モデルが訓練データの側面を推測するプライバシー攻撃に脆弱であることが示されています。しかし、より単純な生成モデルであるトピックモデルも同様の脆弱性を持つかどうかは不明です。本研究では、Latent Dirichlet Allocation(LDA)内で訓練データのメンバーを確実に特定できるトピックモデルへの攻撃を提案しています。私たちの結果は、生成モデリングに関連するプライバシーリスクが大規模ニューラルモデルに限定されていないことを示唆しています。さらに、これらの脆弱性を緩和するために差分プライバシー(DP)トピックモデリングを探求します。DP語彙選択を前処理ステップとして取り入れた私的トピックモデリングフレームワークを提案し、その結果、プライバシー向上と実用性への限定的影響があることを示します。
In un'altra lingua
dal contenuto originale
arxiv.org
Approfondimenti chiave tratti da
by Nico Manzone... alle arxiv.org 03-08-2024
https://arxiv.org/pdf/2403.04451.pdfDomande più approfondite