마스크드 자기회귀 사전학습(MAP) 기법은 Mamba와 Transformer 모듈의 성능을 향상시키는 효과적인 방법이다. 이 기법은 지역적 MAE와 전역적 자기회귀 학습을 결합하여 Mamba와 Transformer의 장점을 모두 활용할 수 있다.