In dieser Arbeit wird ein aktives Lernverfahren vorgestellt, um Halluzinationen in Textzusammenfassungen von Großsprachmodellen zu mindern. Das Verfahren misst verschiedene Arten von Halluzinationen, wie semantische Fehler, Diskursfehler und Fehler in der Inhaltsverifizierbarkeit, und wählt dann gezielt Beispiele aus, die eine hohe Halluzinationsvielfalt aufweisen, um die Modelle damit effizient weiterzutrainieren.
Die Autoren zeigen in umfangreichen Experimenten auf drei Datensätzen und mit verschiedenen Basismodellen, dass ihr Verfahren die Halluzinationen in den Zusammenfassungen effektiv reduziert, während gleichzeitig der Aufwand für menschliche Annotationen minimiert wird. Im Vergleich zu anderen aktiven Lernverfahren und zufälliger Auswahl schneidet der vorgeschlagene Ansatz deutlich besser ab.
Naar een andere taal
vanuit de broninhoud
arxiv.org
Belangrijkste Inzichten Gedestilleerd Uit
by Yu Xia,Xu Li... om arxiv.org 04-03-2024
https://arxiv.org/pdf/2404.01588.pdfDiepere vragen