核心概念
本研究では、深層ニューラルネットワークの訓練において、複数の目的関数を同時に最適化する手法を提案する。これにより、モデルのサイズ削減や計算量の削減といった目的と、精度維持といった目的の間のトレードオフを探索し、適切なバランスを見出すことができる。
要約
本研究では、深層学習における多目的最適化の課題に取り組んでいる。従来の手法では、単一の損失関数を最小化することで学習を行っていたが、これでは複数の目的関数を同時に最適化することができない。そこで本研究では、修正されたWeighted Chebyshev (WC) スカラー化手法とAugmented Lagrangian (AL) 法を組み合わせた手法を提案している。
具体的には以下の通り:
- WC スカラー化手法を用いることで、パレート最適解全体を効率的に求めることができる。
- AL 法を用いることで、制約付き最適化問題を扱うことができ、SGDやAdamといった一般的な最適化手法を適用できる。
- モデルの疎性を目的関数に加えることで、モデルサイズの削減と精度維持のトレードオフを探索できる。
- 提案手法を2つのデータセット(MultiMNIST, Cifar10Mnist)で評価し、既存手法と比較して優れた性能を示した。
本研究の貢献は以下の通り:
- 深層学習における多目的最適化の課題に対して、WC スカラー化とAL法を組み合わせた新しい手法を提案した。
- モデルの疎性を目的関数に加えることで、モデルサイズの削減と精度維持のトレードオフを探索できるようにした。
- 2つのデータセットで提案手法の有効性を示した。
統計
モデルのパラメータ数に対する非ゼロパラメータ数の割合(Sparsity Rate)は、MultiMNISTデータセットで57.26%、Cifar10Mnistデータセットで29.31%であった。
モデルの圧縮率(Compression Rate)は、MultiMNISTデータセットで2.7、Cifar10Mnistデータセットで1.94であった。
パラメータ共有率(Parameter Sharing)は、MultiMNISTデータセットで1.15、Cifar10Mnistデータセットで1.37であった。