核心概念
본 연구는 대화 속 감정 인식을 위해 감정 정보를 활용한 대조 학습 프레임워크를 제안한다. 이를 통해 유사한 감정을 더욱 잘 구분할 수 있는 발화 표현을 생성한다.
要約
본 논문은 대화 속 감정 인식(ERC) 문제를 다룬다. ERC는 대화 내 각 발화의 잠재된 감정을 탐지하는 것으로, 다양한 응용 분야에서 중요한 역할을 한다. 그러나 유사한 발화가 다른 감정을 나타내거나, 유사한 감정을 구분하기 어려운 문제가 존재한다.
이를 해결하기 위해 본 연구는 감정 기반 대조 학습 프레임워크(EACL)를 제안한다. EACL은 감정 레이블 인코딩을 활용해 감정 앵커를 생성하고, 이를 통해 발화 표현 학습을 안내한다. 구체적으로:
- 감정 앵커와 발화 표현 간 대조 학습을 통해 유사 감정을 잘 구분할 수 있는 발화 표현을 학습한다.
- 감정 앵커 간 각도 손실을 통해 앵커의 균일한 분포를 유도한다.
- 두 번째 단계에서 감정 앵커를 미세 조정하여 분류 성능을 향상시킨다.
실험 결과, EACL은 다양한 벤치마크 데이터셋에서 최신 성능을 달성했으며, 특히 유사 감정 구분에서 큰 성능 향상을 보였다.
統計
유사 감정인 행복과 신남의 F1 점수가 각각 7.33%, 4.55% 향상되었다.
유사 감정인 좌절과 화남의 F1 점수가 각각 3.80%, 2.72% 향상되었다.
引用
"본 연구는 대화 속 감정 인식(ERC) 문제를 다룬다. ERC는 대화 내 각 발화의 잠재된 감정을 탐지하는 것으로, 다양한 응용 분야에서 중요한 역할을 한다."
"EACL은 감정 레이블 인코딩을 활용해 감정 앵커를 생성하고, 이를 통해 발화 표현 학습을 안내한다."