Die Studie untersucht das Problem, dass bisherige Meinungszusammenfassungsmodelle dazu neigen, die Polaritätsverzerrung zu verstärken, indem sie die Mehrheitsmeinungen hervorheben und die Minderheitsmeinungen ignorieren.
Um dies anzugehen, wird das Konzept der Polaritätsanpassung eingeführt, das darauf abzielt, die Polarität der Zusammenfassung an die des Eingangstextes anzupassen.
Dafür wird ein Reinforcement-Learning-Ansatz entwickelt, der drei Belohnungen integriert: Polaritätsabstand, Inhaltserhaltung und Sprachqualität.
Die Experimente auf zwei Meinungszusammenfassungsaufgaben zeigen, dass der Polaritätsabstand zwischen Zusammenfassung und Eingabetext verringert werden kann, ohne die Inhaltssemantikunddie Sprachqualität zu beeinträchtigen.
To Another Language
from source content
arxiv.org
Key Insights Distilled From
by Yuanyuan Lei... at arxiv.org 04-03-2024
https://arxiv.org/pdf/2404.01706.pdfDeeper Inquiries