核心概念
CNN variants can reach near-optimal learning capacity by analyzing data variation, saving computational time without validation data.
要約
畳み込みニューラルネットワーク(CNN)の学習行動を分析し、データ変動を通じて近い最適な学習容量を予測することで、検証データなしで計算時間を節約できる。
CNNの学習フェーズにおけるデータ変動を調査し、安定性ベクトルの概念を導入して近い最適な学習容量を予測する。これにより、計算時間が節約される。
提案された仮説は、検証データが不要であり、ネットワークに追加のトレーニング可能パラメーターを導入しない。この仮説はプラグアンドプレイとしてどのCNNバリアントにも統合できる。
実験結果では、平均して58.49%の計算時間が節約された。医用画像データセットでも44.1%の計算時間が節約された。
統計
本研究では平均して58.49%の計算時間が節約された。
医用画像データセットでも44.1%の計算時間が節約された。