核心概念
針對多類別變長度時間序列的片段分類任務,本文提出了一個名為 Con4m 的上下文感知一致性學習框架,該框架有效利用上下文信息來提高分類性能,並透過標籤一致性訓練來減輕標籤雜訊的影響。
摘要
Con4m:一種針對分段時間序列分類的上下文感知一致性學習框架
這篇研究論文提出了 Con4m,一個針對多類別變長度時間序列(MVD)分段時間序列分類(TSC)任務的新型框架。
本研究旨在解決現有 TSC 模型在處理 MVD 分段時間序列時所面臨的兩個主要挑戰:
**利用上下文信息:**與完整序列的 TSC 任務不同,分段 TSC 中的連續分類片段之間存在自然的時序依賴性。現有的 TSC 模型主要關注獨立同分佈(i.i.d.)的假設,忽略了這些依賴關係。
**不一致的邊界標籤:**由於 MVD 中狀態之間的邊界通常不明確,因此不同的標註者可能會提供不一致的邊界標籤,從而導致無噪聲 TSC 模型的性能不穩定。
Con4m 框架透過以下方式解決這些挑戰:
**連續上下文表徵編碼器:**Con4m 採用結合高斯先驗的自注意力機制(Con-Attention)來構建連續上下文表徵編碼器(Con-Transformer)。這種設計鼓勵模型關注時間上接近的上下文實例,並生成更平滑的表徵,從而更好地捕捉局部連續性。
**上下文感知的連貫類別預測:**為了利用上下文標籤信息,Con4m 引入了鄰居類別一致性判別和預測行為約束。鄰居類別一致性判別透過聚合來自相似時間片段的預測來提高模型的魯棒性。預測行為約束則透過強制預測在時間軸上的單調性來確保連貫性。
**標籤一致性訓練框架:**為了減輕標籤雜訊的影響,Con4m 採用了一種漸進式的標籤一致性訓練策略。該策略首先從容易達成共識的核心片段開始學習,然後逐漸擴展到更具爭議的邊界片段。此外,Con4m 還利用模型預測來自適應地調整訓練標籤,從而進一步提高模型的魯棒性。