Core Concepts
본 연구는 재귀적 구성 다중 수준 표현을 통해 트랜스포머 모델의 성능을 향상시키는 방법을 제안한다. 제안된 모델인 ReCAT은 상향식과 하향식 인코딩을 반복적으로 수행하여 문장의 계층적 구조를 명시적으로 모델링하고, 이를 통해 다양한 수준의 구성 요소들이 직접 상호작용할 수 있도록 한다.
Abstract
본 논문은 트랜스포머 모델에 재귀적 구성 다중 수준 표현을 결합하여 성능을 향상시키는 ReCAT 모델을 제안한다.
ReCAT의 핵심 구성 요소는 Contextual Inside-Outside (CIO) 레이어이다. CIO 레이어는 상향식 인코딩과 하향식 인코딩을 반복적으로 수행하여 문장의 계층적 구조를 명시적으로 모델링한다. 상향식 인코딩에서는 저수준 구성 요소를 결합하여 고수준 구성 요소의 표현을 생성하고, 하향식 인코딩에서는 자신, 형제, 부모 정보를 결합하여 구성 요소의 문맥화된 표현을 얻는다.
이렇게 생성된 다중 수준의 구성 요소 표현은 이후 트랜스포머 레이어에 입력되어, 서로 다른 수준의 구성 요소들이 직접 상호작용할 수 있게 된다. 이를 통해 ReCAT은 기존 트랜스포머 모델에 비해 향상된 성능을 보인다.
또한 ReCAT은 CIO 레이어와 트랜스포머를 함께 사전 학습할 수 있어, 확장성, 성능, 해석 가능성을 모두 갖출 수 있다. 실험 결과, ReCAT은 다양한 문장 수준 및 구성 요소 수준 작업에서 기존 모델들을 크게 능가하는 성과를 보였다. 특히 구문 분석 작업에서는 사람이 주석한 구문 트리와 높은 일관성을 보여 ReCAT의 해석 가능성을 입증하였다.
Stats
문장의 의미는 부분의 의미와 그 부분들이 통사적으로 결합된 방식의 함수이다.
트랜스포머 모델은 통사 구조와 의미를 암시적이고 얽혀있는 형태로 표현한다.
명시적인 계층적 구조 모델링은 해석 가능성을 높이고 합성적 일반화를 향상시킬 수 있다.
Quotes
"the meaning of a whole is a function of the meanings of the parts and of the way they are syntactically combined"
"syntax and semantics in Transformer models are represented in an implicit and entangled form, which is somewhat divergent from the desiderata of linguistics"