Core Concepts
ネガティブフィードバック学習は、ノイズに対するDNNモデルの堅牢性を大幅に向上させることができる。
Abstract
本研究では、ネガティブフィードバック学習(NFT)という新しい概念を提案した。NFTは、DNNの学習プロセスにおいて、ネットワークの出力の一部をフィードバックとして利用し、ノイズの影響を抑制することで、より堅牢なDNNモデルを得ることができる。
具体的には、2つのNFT実装方式を提案した:
方向性変分フォワード(OVF): 変分フォワードの出力を負のフィードバックとして利用し、最適な学習方向への偏移を抑制する。
中間表現スナップショット(IRS): ネットワーク内部の特徴表現を負のフィードバックとして利用し、内部の変動を抑制する。
広範な実験の結果、提案手法はベースラインと比べて最大46.71%の精度向上を達成し、出力の不確実性を低減し、収束確率を向上させることができた。これらの結果は、NFTがNVCIM DNNアクセラレータの堅牢性向上に有効であることを示している。
Stats
ノイズ注入推論時の平均精度は、VGG-8 MNISTで最大46.71%向上した。
ResNet-18 CIFAR-100では最大20.24%向上した。
Quotes
"ネガティブフィードバック学習は、ノイズに対するDNNモデルの堅牢性を大幅に向上させることができる。"
"提案手法はベースラインと比べて最大46.71%の精度向上を達成し、出力の不確実性を低減し、収束確率を向上させることができた。"