Core Concepts
ニューラルネットワークの重みに対して正負両方向の雑音を注入し、その平均を取ることで、損失関数のヘシアン行列の特性を改善し、一般化性能を向上させる。
Abstract
本論文は、ニューラルネットワークの重みに対して雑音を注入することで、損失関数の平坦な極小値を効率的に見つける手法を提案している。具体的には以下の通り:
重みに対して正の雑音と負の雑音を注入し、その平均を取ることで、一次の項を相殺しつつ二次の項であるヘシアンの正則化効果を保持する。
複数の雑音サンプルを取り、その平均を取ることで、勾配の分散を低減する。
提案手法の収束性を理論的に解析し、勾配ノルムの上界と下界を示す。
画像分類タスクにおいて、提案手法が既存の平坦化手法と比べて優れた一般化性能を示すことを実験的に確認する。特に、損失関数のヘシアンの特性を大幅に改善できることを明らかにする。
重み減衰やデータ拡張などの既存の正則化手法と組み合わせることで、さらなる性能向上が可能であることを示す。
Stats
提案手法は、ニューラルネットワークの重みに対して正負両方向の雑音を注入し、その平均を取ることで、損失関数のヘシアン行列の特性を大幅に改善できる。具体的には、ヘシアンの trace を17.7%、最大固有値を12.8%低減できる。
提案手法は、既存の平坦化手法と比べて、画像分類タスクにおいて最大1.8%の精度向上を達成できる。
Quotes
"ニューラルネットワークの損失関数の平坦な極小値を効率的に見つけるため、重みに対して正負両方向の雑音を注入し、その平均を取る手法を提案する。"
"提案手法は、損失関数のヘシアン行列の特性を大幅に改善でき、既存の平坦化手法と比べて優れた一般化性能を示す。"