核心概念
背景クラスを追加することで、深層学習モデルの一般化性能を向上させることができる。
摘要
本論文では、背景クラスを追加することで画像分類の一般化性能を向上させる手法を提案している。
まず、著者は以下のような観察と仮説を示している:
- 大規模データセットで事前学習したモデルは、新しい画像を分類する際に重要な特徴を抽出できる。ただし、新しい画像が事前学習データと大きく異なる場合、性能が低下する。
- 同じパラメータ数の異なるDNNモデルでは、同じデータセットで訓練しても精度が異なる。
- 畳み込み層は空間的に並列に特徴を抽出し、全結合層がそれらの特徴を組み合わせて各クラスの得点を算出する。
- 背景物体の特徴も各クラスの得点に影響を与えることがある。
そこで著者は、背景クラスを追加することで以下のような効果が期待できると述べている:
- 背景クラスの特徴を抑制することで、各クラスの特徴をより正確に捉えられるようになる。
- 背景クラスの追加によって、全結合層のパラメータ数の増加が抑えられ、計算コストを抑えられる。
実験では、STL-10、Oxford-102、CUB-200-2011、FGVC Aircraft、KMNIST、EMNISTなどのデータセットで提案手法の有効性を確認している。また、ビジョントランスフォーマーにも適用し、STL-10、Caltech-101、CINIC-10で最先端の性能を達成している。
统计
背景クラスを追加することで、STL-10データセットの分類精度が98.58%に向上した。
EMNIST-Balancedデータセットの分類精度が90.04%に向上した。
引用
"背景クラスを追加することで、各クラスの特徴をより正確に捉えられるようになる。"
"背景クラスの追加によって、全結合層のパラメータ数の増加が抑えられ、計算コストを抑えられる。"