核心概念
Positive label smoothing increases model privacy leakage, while negative label smoothing offers a defense against model inversion attacks.
要約
深層学習におけるラベルスムージングは、モデルのプライバシー漏洩を増加させます。一方、負のラベルスムージングは、モデル逆転攻撃に対する防御策を提供します。この研究は、プライバシー漏洩への影響を明らかにし、新たな防御戦略を提示しています。実験結果や理論的背景に基づいて、ラベルスムージングが深層学習モデルのセキュリティとプライバシーに与える影響を探求しています。
統計
ポジティブなラベルスムージングは、プライバシー漏洩を増加させます。
ネガティブなラベルスムージングは、モデル逆転攻撃に対する防御策として機能します。
ポジティブなLS(α = 0.1)では、攻撃が強化されます。
ネガティブなLS(α = -0.05)は既存の防御策よりも優れた効果を示します。
FaceScrubで訓練されたResNet-152モデルにおいてポジティブLS(α = 0.1)とネガティブLS(α = -0.05)の比較が行われました。
引用
"Training a model with a positive smoothing factor increases its privacy leakage."
"Smoothing with a negative factor offers a practical defense against model inversion attacks."
"Negative label smoothing counteracts the trend of increased privacy leakage."