Core Concepts
DP最適化の収束分析と、少量の公開トレーニングデータを使用したDP連続事前トレーニング戦略の効果的な提案。
Abstract
この論文では、DP最適化における減速要因であるパーサンプル勾配クリッピング、ノイズ、およびヘシアンを特定し、少量(10%未満)の公開トレーニングを使用してこれらを大幅に軽減する方法が提案されています。その結果、DP連続事前トレーニングは非常に正確で実装可能なものとして示されています。
Stats
DP精度:ImageNet-21kで41.5%(ϵ = 8)
非DP精度:Places365で55.7%、iNaturalist-2021で60.0%
CIFAR10における精度低下:ϵ = 8時に95%から70%未満へ
Quotes
"DP最適化はパブリックデータの一部を使用することで大幅な改善が見られます。"
"DP連続事前トレーニングは非常に正確かつ実装可能です。"
"少量の公開データを使用した場合でも、DP事前トレーニングは高い性能を発揮します。"