Core Concepts
본 논문은 문장 간 유사도 측정을 위해 특징 수준의 주의 집중 메커니즘을 제안한다. 이를 통해 문장 임베딩 내 중요한 특징에 선택적으로 집중할 수 있도록 한다.
Abstract
본 논문은 문장 간 유사도 측정을 위한 새로운 특징 주의 집중 메커니즘을 제안한다. 기존의 단어 수준 주의 집중 메커니즘은 문장 임베딩 내 특징 간 복잡한 관계를 모델링하지 못한다는 한계가 있다.
저자들은 이를 해결하기 위해 두 가지 메커니즘을 제안한다:
특징 주의 집중 (Feature Attention, FA) 블록: squeeze-and-excitation 기법을 활용하여 문장 임베딩 내 중요한 특징에 선택적으로 집중할 수 있도록 한다.
선택적 특징 주의 집중 (Selective Feature Attention, SFA) 블록: 다중 스케일 의미 추출을 위해 stacked BiGRU Inception 구조를 활용한다. 이를 통해 다양한 수준의 추상화에 걸쳐 선택적으로 특징에 집중할 수 있다.
제안된 FA와 SFA 블록은 기존 Siamese 네트워크와 쉽게 통합될 수 있는 플러그-앤-플레이 특성을 가진다. 실험 결과, 다양한 문장 유사도 측정 벤치마크에서 제안 모델이 기존 모델 대비 우수한 성능을 보였다.
Stats
문장 쌍의 단어 수준 상호작용 정보를 활용하면 문장 간 유사도 측정 성능을 향상시킬 수 있다.
문장 임베딩 내 특징 간 복잡한 관계를 모델링하면 문장 간 유사도 측정 성능을 더욱 향상시킬 수 있다.
다중 스케일 의미 추출을 통해 선택적으로 특징에 집중하면 문장 간 유사도 측정 성능이 크게 향상된다.
Quotes
"본 논문은 문장 간 유사도 측정을 위해 특징 수준의 주의 집중 메커니즘을 제안한다."
"제안된 FA와 SFA 블록은 기존 Siamese 네트워크와 쉽게 통합될 수 있는 플러그-앤-플레이 특성을 가진다."
"실험 결과, 다양한 문장 유사도 측정 벤치마크에서 제안 모델이 기존 모델 대비 우수한 성능을 보였다."