Die Studie untersucht das Problem, dass bisherige Meinungszusammenfassungsmodelle dazu neigen, die Polaritätsverzerrung zu verstärken, indem sie die Mehrheitsmeinungen hervorheben und die Minderheitsmeinungen ignorieren.
Um dies anzugehen, wird das Konzept der Polaritätsanpassung eingeführt, das darauf abzielt, die Polarität der Zusammenfassung an die des Eingangstextes anzupassen.
Dafür wird ein Reinforcement-Learning-Ansatz entwickelt, der drei Belohnungen integriert: Polaritätsabstand, Inhaltserhaltung und Sprachqualität.
Die Experimente auf zwei Meinungszusammenfassungsaufgaben zeigen, dass der Polaritätsabstand zwischen Zusammenfassung und Eingabetext verringert werden kann, ohne die Inhaltssemantikunddie Sprachqualität zu beeinträchtigen.
他の言語に翻訳
原文コンテンツから
arxiv.org
深掘り質問