מושגי ליבה
データセット蒸留(DD)における、異なるニューラルネットワークアーキテクチャ間での転移学習の課題を克服するため、メタ特徴と異種特徴を分離し、アーキテクチャに依存しない損失関数を用いることで、多様なNNアーキテクチャ間で汎用性の高い蒸留データセットを生成するMetaDD手法を提案する。
תקציר
MetaDD: ニューラルネットワークアーキテクチャに依存しない汎化によるデータセット蒸留の促進
本稿は、機械学習、特にデータセット蒸留(DD)に関する研究論文である。
大規模データセットを用いたニューラルネットワーク(NN)の学習コスト増加に対し、軽量な蒸留データセットを用いるDDは有効な解決策となる。しかし、特定のNNアーキテクチャで蒸留されたデータセットは、異なるアーキテクチャのNNでは学習性能が低下するという課題が存在する。本研究は、このアーキテクチャ間の転移学習の課題を克服し、多様なNNアーキテクチャ間で汎用的に機能するDD手法を提案することを目的とする。
提案手法MetaDDは、蒸留データの持つ特徴を、異なるNNアーキテクチャ間で共通して重要なメタ特徴と、特定のアーキテクチャに固有の異種特徴に分離する。そして、アーキテクチャに依存しない損失関数を用いることで、メタ特徴を最大化し、異種特徴を最小化するように蒸留データを生成する。具体的には、複数の事前学習済みNN(補助ネットワーク)を用いて蒸留データのCAM(Class Activation Map)を取得し、その空間的なばらつきを最小化するように学習を行う。