Transformers의 기존 Attention 메커니즘을 간단히 수정하여 로그-합 지수 함수로 표현할 수 있으며, 이를 통해 고정 크기의 잠재 공간에서 순차적으로 적용할 수 있어 토큰당 일정한 시간과 공간 복잡도로 처리할 수 있다.