Centrala begrepp
Establishing a theoretical framework to understand transferability between sets of classes in classification tasks.
Sammanfattning
この論文は、分類タスクにおけるクラスのサブセットの一般化を理解するための理論的枠組みを確立しています。モデルがどのように他のクラスに一般化できるかを明らかにするため、事前学習されたネットワークから得られる分離性が重要な指標であることが示されています。さらに、実験では事前学習されたアーキテクチャから得られる分離性が、未来のパフォーマンスを評価するために依然として関連性があることが示されています。
Statistik
1000 pairs separated by pretrained network before training
1010 pairs separated after training on CIFAR10 dataset
Best performing subsets identified for finetuning: ("bird", "cat", "deer", "dog", "horse", "ship")
Worst performing pair identified: dog vs. cat, separating the least pairs of classes.
Fundamental number F(C) bounded by log2(n) ≤ F(C) ≤ n/2
Citat
"Transfer learning – the ability of a model to leverage knowledge gained from one task and apply it to another – has gained a lot of attention."
"In recent years, transfer learning has been extended to encompass changes in both the task and the data domain."
"Our work contributes to better understanding of transfer mechanics and model generalization."