Die Studie untersucht das Problem, dass bisherige Meinungszusammenfassungsmodelle dazu neigen, die Polaritätsverzerrung zu verstärken, indem sie die Mehrheitsmeinungen hervorheben und die Minderheitsmeinungen ignorieren.
Um dies anzugehen, wird das Konzept der Polaritätsanpassung eingeführt, das darauf abzielt, die Polarität der Zusammenfassung an die des Eingangstextes anzupassen.
Dafür wird ein Reinforcement-Learning-Ansatz entwickelt, der drei Belohnungen integriert: Polaritätsabstand, Inhaltserhaltung und Sprachqualität.
Die Experimente auf zwei Meinungszusammenfassungsaufgaben zeigen, dass der Polaritätsabstand zwischen Zusammenfassung und Eingabetext verringert werden kann, ohne die Inhaltssemantikunddie Sprachqualität zu beeinträchtigen.
Sang ngôn ngữ khác
từ nội dung nguồn
arxiv.org
Thông tin chi tiết chính được chắt lọc từ
by Yuanyuan Lei... lúc arxiv.org 04-03-2024
https://arxiv.org/pdf/2404.01706.pdfYêu cầu sâu hơn