핵심 개념
본 논문에서는 트랜스포머 기반 언어 모델의 다단계 추론 능력을 향상시키기 위해 모델의 attention head에 특정 정보를 주입하는 memory injection 기법을 제안하고, attention head의 출력을 해석 가능하도록 변환하는 Attention Lens 도구를 소개합니다.
초록
언어 모델 해석을 향하여: 다단계 추론 사례 연구
본 연구는 트랜스포머 기반 대규모 언어 모델(LLM)의 다단계 추론 능력을 분석하고 향상시키는 방법을 제시합니다. LLM은 기본적인 지식 검색 및 언어 생성 능력이 뛰어나지만, 인간에게는 쉬운 다단계 추론 작업에서는 어려움을 겪는 경우가 많습니다. 본 논문에서는 LLM이 다단계 추론에 실패하는 이유를 분석하고, 이를 해결하기 위한 새로운 방법론을 제시합니다.
기존 연구에서는 다단계 추론 능력을 향상시키기 위해 Chain-of-Thought (CoT), Tree-of-Thought (ToT), Graph-of-Thought (GoT) 등 다양한 프롬프트 기법을 활용했습니다. 그러나 이러한 방법은 사용자가 원하는 답변을 이끌어내기 위한 추가적인 작업이 필요하며, 비전문가가 사용하기에는 어려움이 따릅니다. 또한, 모델 편집(model editing) 기법은 모델 가중치에 정보를 직접적으로 인코딩하는 방식으로, 계산 비용이 많이 들고 모델의 다른 지식에 예상치 못한 영향을 미칠 수 있다는 단점이 있습니다.