Core Concepts
DPトレーニングされたモデルの損失ランドスケープのフラット化が、プライバシーと汎化性能のトレードオフに重要な役割を果たす。
Abstract
最近、ChatGPTなどの大規模言語モデル(LLMs)の使用に伴うプライバシー懸念が高まっています。既存の研究では、Differential Privacy(DP)技術がプライバシーのリスクを軽減するために探求されてきましたが、一般化の劣化が発生しています。本論文は、DPトレーニングされたモデルの損失ランドスケープのフラットさが、そのプライバシーと一般化性能とのトレードオフにおいて重要な役割を果たすことを明らかにします。さらに、適切なウェイトフラットネスを強制する包括的なフレームワークを提案し、競争力あるプライバシー保存でモデルの汎化性能を大幅に向上させます。
Stats
MIA Accuracy: 50.46, 62.11, 67.42, 72.08, 74.68, 86.12, 87.13, 88.30, 89.56
Quotes
"Does the Loss Flatness Affect the Privacy and Performance Trade-off in DP-trained LLMs?"
"Our proposed methods improve the flatness of weight loss landscape from three aspects."
"DP-Flat achieves similar performance with non-private full fine-tuning but with DP guarantee under privacy budget ϵ = 3."