In dieser Studie wird ein Ansatz namens EmotionIC vorgestellt, der Emotionen in Gesprächen effizient erkennen kann. EmotionIC besteht aus drei Hauptkomponenten:
Identity Masked Multi-Head Attention (IMMHA): Erfasst globale kontextuelle Abhängigkeiten zwischen Gesprächsteilnehmern, indem es identitätsbasierte Aufmerksamkeitsmechanismen verwendet.
Dialogue-based Gated Recurrent Unit (DiaGRU): Extrahiert lokale kontextuelle Informationen, die auf Redner- und zeitlichen Abhängigkeiten basieren.
Skip-Chain Conditional Random Field (SkipCRF): Modelliert explizit komplexe emotionale Interaktionen zwischen Gesprächsteilnehmern auf Klassenebene.
Die Ergebnisse zeigen, dass EmotionIC die Leistung der aktuellen State-of-the-Art-Modelle auf vier Benchmark-Datensätzen deutlich übertrifft. Die Ablationsstudien bestätigen, dass die einzelnen Module von EmotionIC die emotionale Trägheit und Ansteckung effektiv modellieren können.
To Another Language
from source content
arxiv.org
ข้อมูลเชิงลึกที่สำคัญจาก
by Yingjian Liu... ที่ arxiv.org 03-21-2024
https://arxiv.org/pdf/2303.11117.pdfสอบถามเพิ่มเติม