本研究では、自己教師学習(SSL)エンコーダーにおける記憶の局在化を分析するための2つの新しい指標、LayerMemとUnitMemを提案した。
LayerMemは、エンコーダーの各層における記憶の度合いを測る指標で、SSLMemを基に定義されている。実験の結果、SSL エンコーダーでは記憶が深層部分により高くなる傾向があるものの、必ずしも単調増加ではなく、各層で記憶の増加が見られることが分かった。また、異常値データポイントの記憶が全層で高いことも明らかになった。
UnitMemは、エンコーダーの個々の演算ユニットレベルでの記憶の度合いを測る指標である。実験の結果、SSL エンコーダーでは多くのユニットが個々のデータポイントを高度に記憶しているのに対し、教師あり学習(SL)モデルでは後層ほどクラスを記憶する傾向が強いことが分かった。また、異常値データポイントは通常のデータポイントよりも高い記憶を引き起こすことが示された。
最後に、記憶の局在化を利用して、より効率的なファインチューニングや記憶に基づくプルーニング手法の可能性について議論した。
他の言語に翻訳
原文コンテンツから
arxiv.org
深掘り質問