Core Concepts
小規模データセットにおける過学習問題を軽減するため、多数のデータセットでトレーニングされたモデルが従来手法よりも優れた性能を示す。
Abstract
過去10年間で時系列分類(TSC)は注目を集めており、深層学習、特に畳み込みニューラルネットワーク(CNN)が効果的なアプローチとして浮上しています。しかし、トレーニングデータの利用可能性が限られているため、過学習問題を克服するTSC用の基盤モデルを定義することは依然として難しい課題です。本論文では、事前トレーニングされたドメイン基盤モデルを導入して過学習課題に取り組んでいます。我々の方法論の重要な側面は、複数のデータセット全体にわたる新しいPreTextタスクです。このタスクは、各時系列サンプルの元のデータセットを識別し、異なるデータセット全体に適用できる柔軟な畳み込みフィルターを作成することを目指して設計されています。
Stats
UCRアーカイブ内の128個のTSCデータセットから88個へ絞り込まれました。
Pre-training戦略は通常のトレーニング手法よりも明らかに優れています。
Quotes
"我々はUCRアーカイブ上で行った幅広い実験が、この事前トレーニング戦略が小規模データセットにおける過学習問題を有意に軽減し、新しいデータセットへこれらのモデルを適応させる効率的な手段を提供することを示しています。"
"PHITは他の深層学習アプローチ全体で最高性能を発揮します。"