Alapfogalmak
即使自我監督式學習(SSL)編碼器是在數百萬張圖像上進行訓練,它們仍會記憶個別數據點。我們提出了兩種新的度量指標,LayerMem和UnitMem,用於定位SSL編碼器中的記憶化,不需要任何標籤信息和梯度計算,僅需要一次前向傳遞。我們發現:(1)儘管SSL記憶化隨層深增加,但高度記憶化的單元分佈在整個編碼器中;(2)SSL編碼器的大部分單元經歷了驚人的個別數據點記憶化,這與監督學習(SL)模型形成對比;(3)異常(或離群)數據點導致層和單元的記憶化大大增加;(4)在視覺變換器中,大部分記憶化發生在全連接層。最後,我們展示了定位SSL中的記憶化可以改善微調和修剪策略。
Kivonat
本文研究了自我監督式學習(SSL)編碼器中記憶化的定位問題。作者提出了兩種新的度量指標:LayerMem和UnitMem,用於定位SSL編碼器中的記憶化,無需任何標籤信息和梯度計算,只需要一次前向傳遞。
通過對不同架構的編碼器(卷積和變換器)在多個視覺數據集上使用不同的SSL框架進行實驗,作者得出以下發現:
-
儘管SSL記憶化隨層深增加,但高度記憶化的單元分佈在整個編碼器中,甚至可以在最初的層中找到。
-
SSL編碼器的大部分單元經歷了驚人的個別數據點記憶化,這與監督學習(SL)模型形成對比,後者更多地記憶類別。
-
異常(或離群)數據點導致層和單元的記憶化大大增加,但這種效果在所有層中都是恆定的,沒有特定層負責記憶這些數據點。
-
在視覺變換器中,大部分記憶化發生在全連接層。
作者還驗證了定位記憶化的實用性,包括改善微調和基於記憶化的修剪策略。總的來說,本文提出了一種有效定位SSL編碼器記憶化的新方法,並得出了一些有趣的發現。
Statisztikák
即使SSL編碼器是在數百萬張圖像上進行訓練,它們仍會記憶個別數據點。
高度記憶化的單元分佈在整個SSL編碼器中,而不僅僅在最後幾層。
SSL編碼器的大部分單元經歷了驚人的個別數據點記憶化,這與監督學習(SL)模型形成對比。
異常(或離群)數據點導致層和單元的記憶化大大增加。
在視覺變換器中,大部分記憶化發生在全連接層。
Idézetek
"即使SSL編碼器是在數百萬張圖像上進行訓練,它們仍會記憶個別數據點。"
"高度記憶化的單元分佈在整個SSL編碼器中,而不僅僅在最後幾層。"
"SSL編碼器的大部分單元經歷了驚人的個別數據點記憶化,這與監督學習(SL)模型形成對比。"
"異常(或離群)數據點導致層和單元的記憶化大大增加。"
"在視覺變換器中,大部分記憶化發生在全連接層。"