畳み込みニューラルネットワーク(CNN)の学習行動を分析し、データ変動を通じて近い最適な学習容量を予測することで、検証データなしで計算時間を節約できる。
CNNの学習フェーズにおけるデータ変動を調査し、安定性ベクトルの概念を導入して近い最適な学習容量を予測する。これにより、計算時間が節約される。
提案された仮説は、検証データが不要であり、ネットワークに追加のトレーニング可能パラメーターを導入しない。この仮説はプラグアンドプレイとしてどのCNNバリアントにも統合できる。
実験結果では、平均して58.49%の計算時間が節約された。医用画像データセットでも44.1%の計算時間が節約された。
Іншою мовою
із вихідного контенту
arxiv.org
Ключові висновки, отримані з
by Sahan Ahmad,... о arxiv.org 03-06-2024
https://arxiv.org/pdf/2403.02473.pdfГлибші Запити