與試圖最大化類間距離的傳統方法相反,CLOSER主張縮小類間距離,以學習更具辨別性和可遷移性的表示,從而提高少樣本類別增量學習的性能。
本文提出了一種新的集成學習方法 Aggregated f-averages (AFA),能夠有效地將多個專門化的弱分類器融合在一起,以解決少樣本類別增量學習的問題。
提出一種知識適應網路(KANet),能夠利用基礎模型CLIP提供的一般表示,並透過知識適配器(KA)模組和增量偽造學習(IPEL)機制,有效地將任務特定知識融入到CLIP中,以解決少樣本類別增量學習的挑戰。