In dieser Arbeit wird ein aktives Lernverfahren vorgestellt, um Halluzinationen in Textzusammenfassungen von Großsprachmodellen zu mindern. Das Verfahren misst verschiedene Arten von Halluzinationen, wie semantische Fehler, Diskursfehler und Fehler in der Inhaltsverifizierbarkeit, und wählt dann gezielt Beispiele aus, die eine hohe Halluzinationsvielfalt aufweisen, um die Modelle damit effizient weiterzutrainieren.
Die Autoren zeigen in umfangreichen Experimenten auf drei Datensätzen und mit verschiedenen Basismodellen, dass ihr Verfahren die Halluzinationen in den Zusammenfassungen effektiv reduziert, während gleichzeitig der Aufwand für menschliche Annotationen minimiert wird. Im Vergleich zu anderen aktiven Lernverfahren und zufälliger Auswahl schneidet der vorgeschlagene Ansatz deutlich besser ab.
To Another Language
from source content
arxiv.org
Key Insights Distilled From
by Yu Xia,Xu Li... at arxiv.org 04-03-2024
https://arxiv.org/pdf/2404.01588.pdfDeeper Inquiries