Concetti Chiave
與試圖最大化類間距離的傳統方法相反,CLOSER主張縮小類間距離,以學習更具辨別性和可遷移性的表示,從而提高少樣本類別增量學習的性能。
這篇研究論文提出了一種名為CLOSER的新方法,旨在解決少樣本類別增量學習(FSCIL)中的挑戰。FSCIL的目標是在學習新類別的同時保留對先前學習類別的知識,這是一個需要解決災難性遺忘和過擬合問題的難題。
研究目標
本研究旨在探索有效的表示學習方法,以解決FSCIL中的關鍵挑戰:在已見類別上實現辨別性,同時保持對未見類別的可遷移性。
方法
與以往側重於最大化類間距離以預留表示空間的方法不同,CLOSER主張縮小類間距離。作者認為,在鼓勵類間特徵共享的情況下,更緊密的類間距離可以促進學習更具辨別性和可遷移性的表示。
CLOSER通過結合以下方法實現了這一目標:
使用較低的溫度參數進行交叉熵損失計算,以促進特徵擴散。
使用自監督對比學習(SSC)損失來進一步鼓勵特徵共享。
引入最小化類間距離的新損失函數。
主要發現
傳統的表示擴散方法雖然有利於可遷移性,但在FSCIL的背景下會損害辨別性。
縮小類間距離可以規範類內擴散,從而增強辨別性。
結合表示擴散方法,縮小類間距離可以促進有效學習類間可共享信息,從而提高可遷移性。
CLOSER在CUB200和CIFAR100數據集上均取得了最先進的性能,證明了其在實現辨別性和可遷移性之間取得更好平衡方面的有效性。
結論
本研究挑戰了FSCIL中關於最大化類間距離的傳統觀念,並提出了一種基於縮小類間距離的新穎方法。基於實驗結果和信息瓶頸理論分析,CLOSER為FSCIL的表示學習提供了一條有前景的研究途徑。
局限性和未來研究方向
本研究主要關注學習對未見類別具有辨別性和可遷移性的表示,未考慮更新表示以適應新類別。
CLOSER目前僅限於分類任務。
未來的研究可以探索將CLOSER擴展到其他領域,例如需要持續學習和適應新概念的場景。此外,研究CLOSER在其他任務(如目標檢測和圖像分割)中的應用也將是有價值的。
Statistiche
在 CUB200 數據集上,CLOSER 在 10-way 5-shot 增量學習設置中,相較於之前最佳方法,將性能下降 (PD) 從 19.35% 降低至 15.82%。
在 CIFAR100 數據集上,CLOSER 在 5-way 5-shot 增量學習設置中,相較於之前最佳方法,將性能下降 (PD) 從 22.50% 降低至 22.40%。
在 miniImageNet 數據集上,CLOSER 在 5-way 5-shot 增量學習設置中,相較於之前最佳方法,在保持較高 AW 的同時,實現了更低的 PD。