Core Concepts
시계열 데이터의 잔차를 점진적으로 학습하여 과적합 문제를 해결하고 예측 성능을 향상시킬 수 있다.
Abstract
이 논문에서는 시계열 데이터 예측을 위한 새로운 모델인 Minusformer를 제안한다. Minusformer는 기존 Transformer 모델의 정보 집계 메커니즘을 덧셈에서 뺄셈으로 변경하여 과적합 문제를 해결한다.
각 블록에 보조 출력 브랜치를 추가하여 최종 예측으로 이어지는 하이웨이를 구축한다. 이 브랜치의 후속 모듈 출력은 이전에 학습된 결과를 뺄셈하여, 모델이 감독 신호의 잔차를 층층이 학습할 수 있게 한다.
이러한 설계를 통해 모델의 유연성, 해석 가능성 및 과적합에 대한 회복력이 향상된다. 실험 결과, Minusformer는 다양한 데이터셋에서 기존 최신 모델 대비 평균 11.9% 향상된 성능을 보였다.
Stats
시계열 데이터의 잔차를 점진적으로 학습하면 모델의 분산을 효과적으로 줄일 수 있다.
Minusformer의 분산은 각 블록의 추정 오류와 블록 간 공분산에 의해 제한된다.
덧셈 대신 뺄셈을 사용하면 Minusformer의 분산이 4Lα^2(ν + μ)보다 작아진다.
Quotes
"The sculpture is already complete within the marble block, before I start my work. It is already there. I just have to chisel away the superfluous material." - Michelangelo