본 논문은 대화 감정 인식(Emotion Recognition in Conversation, ERC) 문제를 다룬다. ERC는 대화 맥락 정보를 활용하여 각 발화의 감정을 인식하는 것을 목표로 한다. 기존 ERC 모델들은 주로 주의 메커니즘이나 순환 신경망 등을 활용하여 대화 맥락 정보를 모델링하였지만, 화자 정보와 감정 관성 및 전염 효과를 충분히 고려하지 못했다.
본 연구에서는 EmotionIC라는 새로운 모델을 제안한다. EmotionIC는 특징 추출 단계와 분류 단계에서 모두 대화 맥락 정보를 효과적으로 활용한다.
특징 추출 단계에서는 Identity Masked Multi-Head Attention(IMMHA)와 Dialogue-based Gated Recurrent Unit(DiaGRU)를 사용한다. IMMHA는 화자 정보를 활용하여 전역적 맥락 의존성을 모델링하고, DiaGRU는 화자 및 시간 정보를 활용하여 지역적 맥락 의존성을 모델링한다.
분류 단계에서는 Skip-chain Conditional Random Field(SkipCRF)를 사용하여 대화 내 복잡한 감정 흐름을 명시적으로 모델링한다. SkipCRF는 화자 간 및 화자 내 감정 의존성을 고차 이웃 발화로부터 포착할 수 있다.
실험 결과, EmotionIC는 IEMOCAP, DailyDialog, MELD, EmoryNLP 데이터셋에서 최신 모델들을 뛰어넘는 성능을 보였다. 이는 EmotionIC가 감정 관성과 전염 효과를 효과적으로 모델링할 수 있음을 보여준다.
Іншою мовою
із вихідного контенту
arxiv.org
Ключові висновки, отримані з
by Yingjian Liu... о arxiv.org 03-21-2024
https://arxiv.org/pdf/2303.11117.pdfГлибші Запити