Основні поняття
事前学習済み深層ニューラルネットワークの Out-of-Distribution 汎化能力は、モデルのアーキテクチャや学習データの性質、特にデータセットの多様性(クラス数、解像度、水増しの有無)に大きく影響を受ける。
Анотація
事前学習済みモデルにおける Out-of-Distribution 汎化に影響を与える変数に関する研究論文の概要
書誌情報: Md Yousuf Harun, Kyungbok Lee, Jhair Gallardo, Giri Krishnan, Christopher Kanan. What Variables Affect Out-of-Distribution Generalization in Pretrained Models? NeurIPS 2024.
研究目的: 本研究は、事前学習済み深層ニューラルネットワーク (DNN) の Out-of-Distribution (OOD) 汎化能力に影響を与える変数を特定することを目的とする。特に、近年提唱された「トンネル効果」仮説の普遍性と、画像解像度、学習データのクラス数、DNN アーキテクチャなどの変数が及ぼす影響を検証する。
手法:
- トンネル効果の強度を測定するため、OOD データセットに対する層ごとの線形プローブの精度に基づいた3つの指標 (% OOD Performance Retained, Pearson Correlation, ID/OOD Alignment) を定義。
- ImageNet-100、CIFAR-10、CIFAR-100 を用いて、様々な DNN アーキテクチャ (VGG, ResNet, ViT) を学習。
- データ拡張、学習データのクラス数とサンプル数、画像解像度、DNN アーキテクチャ (ステムサイズ、空間縮小率、過剰パラメータ化レベル、深さ) などの変数を体系的に変化させ、各条件下での OOD 汎化能力を評価。
- 各変数の影響を個別に評価するために、ペアワイズ Wilcoxon 符号順位検定を実施。
- 各変数の相対的な重要度を分析するために、SHAP (SHapley Additive exPlanations) を使用。
主要な結果:
- 学習データのクラス数が多いほど、高解像度の画像を使用するほど、またデータ拡張を行うほど、OOD 汎化能力が向上し、トンネル効果が減少する。
- 広く使用されている ImageNet-1K で事前学習された CNN や ViT バックボーンのほとんどは、ResNet-50 を除いて、トンネル効果を示さない。
- トンネル効果は、連続学習における破滅的忘却に大きく影響する。これは、多くの連続学習システムの汎用性が、アーキテクチャや学習データセットの選択に大きく影響されるトンネル効果の強度に依存することを示唆している。
- 低解像度と少数のクラスという特徴を持つ従来のトイデータセットは、トンネル効果を悪化させる。
- 過剰パラメータ化レベル、ステムサイズ、DNN の深さは、OOD 汎化能力に負の影響を与える。
結論:
- トンネル効果は普遍的な現象ではなく、学習データの多様性、特にクラス数、解像度、データ拡張に大きく影響される。
- トンネル効果を軽減し、OOD 汎化能力を向上させるためには、多様なデータセットを用いて事前学習を行うことが重要である。
- 本研究の結果は、表現学習、ニューラルコラプス、OOD 検出・汎化に関する研究において、より高解像度で多様なデータセット (100 クラス以上) を使用することの重要性を示唆している。
今後の研究:
- トンネル効果の理論的な説明のためのフレームワークの開発。
- 非画像データ、マルチモーダルデータ、バイアスのかかったデータセットにおけるトンネル効果の研究。
- SSL アルゴリズムにおける OOD 汎化能力の要因分析 (目的関数 vs. データ拡張)。
- 小さな初期データセットから学習を開始する連続学習手法において、トンネル効果を軽減するための正則化やその他の技術の開発。
Статистика
ImageNet-100 で学習した DNN では、データ拡張なしで 64.26%、データ拡張ありで 78.41% の OOD パフォーマンスが維持された。
32x32 の画像で学習したモデルと比較して、64x64、128x128、224x224 の画像で学習したモデルは、OOD パフォーマンスの維持、ピアソン相関、ID/OOD アライメントの点で有意な改善を示した。
VGGm† モデル (空間縮小率 = 1.0) は、VGGm モデル (空間縮小率 = 0.5) と比較して、OOD パフォーマンスの維持 (84.40% 対 64.85%)、ピアソン相関 (0.92 対 0.72)、ID/OOD アライメント (0.26 対 0.18) の点で有意な改善を示した。
ResNet-18 (7x7 ステム) と比較して、VGGm-17 (3x3 ステム) は、OOD パフォーマンスの維持 (76.74% 対 66.66%) と ID/OOD アライメント (0.27 対 0.21) の点で有意な改善を示した。
VGGm-11 (深さ 11) と比較して、VGGm-17 (深さ 17) は、OOD パフォーマンスの維持 (89.19% 対 69.41%)、ピアソン相関 (0.94 対 0.80)、ID/OOD アライメント (0.28 対 0.25) の点で有意な低下を示した。
VGGm-11 (過剰パラメータ化レベル = 74.7) と比較して、ResNet-34 (過剰パラメータ化レベル = 168.4) は、OOD パフォーマンスの維持 (87.22% 対 62.78%)、ピアソン相関 (0.93 対 0.82)、ID/OOD アライメント (0.29 対 0.20) の点で有意な低下を示した。
Цитати
"The Tunnel Effect Hypothesis: An overparameterized N-layer DNN forms two distinct groups: 1. The extractor consists of the first K layers, creating linearly separable representations. 2. The tunnel comprises the remaining N −K layers, compressing representations and hindering OOD generalization."
"K is proportional to the diversity of training inputs, where if diversity is sufficiently high, N = K."