Core Concepts
DNN models trained with fixed ETF classifiers enhance transfer learning performance across domains.
Abstract
最近発見されたニューラル崩壊(NC)現象は、深層ニューラルネットワーク(DNN)の最後の層の重みが訓練の終末段階でEquiangular Tight Frame(ETF)シンプレックスに収束することを述べています。このETFジオメトリは、最後の層の活性化内のクラス間変動が消失することに相当します。NC特性に触発され、我々は本論文で、その最後の層の重みがETFに従って固定されたDNNモデルの転移可能性を探求します。これにより、クラス共分散情報を排除することでクラス分離を強制し、暗黙的な正則化を提供します。我々は、このような固定分類器で訓練されたDNNモデルが、特にドメイン外データセットで著しく転移性能を向上させることを示しています。
Stats
DNNモデルは基準方法よりも22%まで改善します。
活性化関数σ(t) = tを使用したランダムフィーチャーはNCを達成します。
固定ETF分類器で訓練されたDNNモデルは、様々なファイングレイン画像分類データセットで優れた転移パフォーマンスを示します。
固定ETF分類器は特に異なるドメインへの転送時に優れたパフォーマンスを発揮します。
ドメイン外転送では、固定ETFモデルが他の基準方法よりも最大19%向上しています。
Quotes
"Neural collapse reveals that features obtained from the last layer of the network converge to class means with their within-class variability collapsing to zero."
"Models equipped with this mechanism exhibit significant enhanced transferability, especially when faced with out-of-distribution target data."
"Our work bridges the application of fixed ETF classifiers with the use of Random Projection (RP) classifiers."