트랜스포머 기반 대규모 언어 모델(LLM)은 이전 토큰에서 정보를 수집하는 초기 단계와 내부적으로 정보를 처리하는 후기 단계라는 두 단계 프로세스로 텍스트를 생성합니다.
Large language models process information in two distinct phases: an initial phase where information from previous tokens is crucial and heavily reliant on the attention mechanism, and a later consolidation phase where internal processing dominates and the model becomes less sensitive to manipulations of previous token representations.