個人情報保護規制の実施に伴い、機械学習分野は「忘れられる権利」に直面している。機械学習モデルから特定のデータを削除し、その影響を低減する機械学習忘却が注目されている。特に大規模言語モデル(LLM)における機械学習忘却は重要な課題となっている。
連邦学習の情報漏洩攻撃によって得られたデータを活用し、攻撃者が元の連邦学習モデルよりも高精度なモデルを構築できることを示す。
プライバシーを保護しつつ高品質な画像を生成するための拡散モデルを提案する。特定の属性に対するプライバシー保護を強化するため、条件付きプライベート分類器ガイダンスを導入する。また、モデルのプライバシー保護性能を評価する新しい指標を開発し、PAC プライバシーの観点から分析を行う。