Die Studie untersucht das Problem, dass bisherige Meinungszusammenfassungsmodelle dazu neigen, die Polaritätsverzerrung zu verstärken, indem sie die Mehrheitsmeinungen hervorheben und die Minderheitsmeinungen ignorieren.
Um dies anzugehen, wird das Konzept der Polaritätsanpassung eingeführt, das darauf abzielt, die Polarität der Zusammenfassung an die des Eingangstextes anzupassen.
Dafür wird ein Reinforcement-Learning-Ansatz entwickelt, der drei Belohnungen integriert: Polaritätsabstand, Inhaltserhaltung und Sprachqualität.
Die Experimente auf zwei Meinungszusammenfassungsaufgaben zeigen, dass der Polaritätsabstand zwischen Zusammenfassung und Eingabetext verringert werden kann, ohne die Inhaltssemantikunddie Sprachqualität zu beeinträchtigen.
Іншою мовою
із вихідного контенту
arxiv.org
Ключові висновки, отримані з
by Yuanyuan Lei... о arxiv.org 04-03-2024
https://arxiv.org/pdf/2404.01706.pdfГлибші Запити