本論文では、深層ニューラルネットワーク(DNN)の特徴抽出部と分類器の最適化を通じて、オーバーフィッティングを軽減する手法を提案している。
まず、DNNの特徴抽出部の出力である特徴ベクトルと、各クラスの平均特徴ベクトル(クラスプロトタイプ)との関係に着目する。Chebyshev不等式を用いて、ある入力サンプルの特徴ベクトルがクラスプロトタイプから大きく離れる確率を上界で表す「Chebyshev Prototype Risk (CPR)」を定義する。
次に、CPRを最小化するための損失関数を提案する。この損失関数は以下の3つの項から構成される:
提案手法では、特に2番目の内クラス共分散の最小化を効率的に行うアルゴリズムを開発している。これにより、大規模なネットワークにも適用可能な正則化手法を実現している。
実験結果から、提案手法がCIFAR100やSTL10などのデータセットにおいて、既存手法と比べてオーバーフィッティングを効果的に抑制し、高い汎化性能を示すことが確認された。
In un'altra lingua
dal contenuto originale
arxiv.org
Approfondimenti chiave tratti da
by Nathaniel De... alle arxiv.org 04-11-2024
https://arxiv.org/pdf/2404.07083.pdfDomande più approfondite