本文提出了一種名為Logit Adjusted Softmax (LAS)的方法,用於解決在線持續學習中由於類別不平衡而導致的遺忘問題。
首先,作者從統計角度分析了在線持續學習中類別不平衡的根源,發現其完全歸因於類別先驗概率的不平衡,而類別條件分布是最優的分類器。因此,作者提出通過調整模型輸出的邏輯值來消除類別先驗概率的影響,從而學習最優的類別條件分布。
具體來說,LAS方法在訓練時根據當前批次樣本中各類別的出現頻率,對模型輸出的邏輯值進行調整。這樣不僅可以抵抗新舊類別之間的不平衡,也可以應對數據流中固有的類別不平衡。作者還設計了一個滑動窗口估計器,用於實時估計類別先驗概率。
實驗結果表明,LAS方法可以顯著提升基線方法的性能,在各種持續學習設置下都取得了優異的結果。與其他方法相比,LAS的計算開銷很小,易於實現和集成。此外,作者還將LAS應用於知識蒸餾方法,在在線類別和領域持續學習中取得了進一步的性能提升。
A otro idioma
del contenido fuente
arxiv.org
Ideas clave extraídas de
by Zhehao Huang... a las arxiv.org 10-01-2024
https://arxiv.org/pdf/2311.06460.pdfConsultas más profundas