本研究では、深層ニューラルネットワークの訓練において、複数の目的関数を同時に最適化する手法を提案する。これにより、モデルのサイズ削減や計算量の削減といった目的と、精度維持といった目的の間のトレードオフを探索し、適切なバランスを見出すことができる。