Der Artikel beschreibt die Entwicklung eines verbesserten Modells zur Bewertung der faktischen Konsistenz von maschinell generierten Texten, genannt LIM-RA (Less Is More for Robust AlignScore).
Zunächst wird der bestehende AlignScore-Ansatz analysiert und Schwächen identifiziert, insbesondere in Bezug auf Robustheit gegenüber Änderungen von Namen und Zahlen. Um diese Probleme zu beheben, wird das Trainingsset bereinigt und um synthetische Robustheitsdaten erweitert. Durch den Einsatz eines DeBERTa-Modells und der Verwendung von nur etwa 10% der Trainingsdaten im Vergleich zu AlignScore kann LIM-RA eine deutlich bessere Leistung erzielen.
LIM-RA wird auf vier Benchmarks evaluiert, die 33 Datensätze umfassen. Das Modell übertrifft dabei konsistent den bisherigen State-of-the-Art AlignScore sowie andere starke Baselines wie ChatGPT. Insbesondere auf dem neu eingeführten LLMR-Benchmark, der die Bewertung der faktischen Konsistenz von Ausgaben großer Sprachmodelle adressiert, erzielt LIM-RA die besten Ergebnisse.
Die Experimente zeigen, dass eine sorgfältige Aufbereitung der Trainingsdaten und der gezielte Einsatz synthetischer Robustheitsdaten entscheidend für die Verbesserung der Leistung sind. Darüber hinaus belegen die Ergebnisse, dass eine Reduktion der Trainingsdatenmenge auf etwa 10% der ursprünglichen Größe die Leistung sogar noch weiter steigern kann.
Till ett annat språk
från källinnehåll
arxiv.org
Djupare frågor