本文研究了自我監督式學習(SSL)編碼器中記憶化的定位問題。作者提出了兩種新的度量指標:LayerMem和UnitMem,用於定位SSL編碼器中的記憶化,無需任何標籤信息和梯度計算,只需要一次前向傳遞。
通過對不同架構的編碼器(卷積和變換器)在多個視覺數據集上使用不同的SSL框架進行實驗,作者得出以下發現:
儘管SSL記憶化隨層深增加,但高度記憶化的單元分佈在整個編碼器中,甚至可以在最初的層中找到。
SSL編碼器的大部分單元經歷了驚人的個別數據點記憶化,這與監督學習(SL)模型形成對比,後者更多地記憶類別。
異常(或離群)數據點導致層和單元的記憶化大大增加,但這種效果在所有層中都是恆定的,沒有特定層負責記憶這些數據點。
在視覺變換器中,大部分記憶化發生在全連接層。
作者還驗證了定位記憶化的實用性,包括改善微調和基於記憶化的修剪策略。總的來說,本文提出了一種有效定位SSL編碼器記憶化的新方法,並得出了一些有趣的發現。
Başka Bir Dile
kaynak içeriğinden
arxiv.org
Önemli Bilgiler Şuradan Elde Edildi
by Wenhao Wang,... : arxiv.org 10-01-2024
https://arxiv.org/pdf/2409.19069.pdfDaha Derin Sorular