Die Untersuchung zeigt, dass Große Sprachmodelle Schwierigkeiten haben, ihre eigenen Antworten zuverlässig selbst zu evaluieren und zu korrigieren. Oft liefern sie entweder übermäßig selbstbewusste oder inkonsistente Rückmeldungen, was die Effektivität der Selbstreflexion stark beeinträchtigt.
Um dies zu verbessern, schlagen die Autoren den Ansatz "Self-Contrast" vor. Dabei generiert das Sprachmodell zunächst eigenständig mehrere unterschiedliche Lösungsperspektiven für eine Aufgabe. Diese Perspektiven werden dann miteinander kontrastiert, um Unterschiede und mögliche Fehlerquellen zu identifizieren. Aus diesen Erkenntnissen wird eine detaillierte Checkliste erstellt, anhand derer das Modell seine Antworten überprüfen und korrigieren kann.
Die Experimente zeigen, dass Self-Contrast im Vergleich zur Standard-Selbstreflexion zu deutlich stabileren und genaueren Ergebnissen führt, sowohl bei mathematischen Reasoning-Aufgaben als auch bei kreativen Übersetzungsaufgaben. Der Ansatz funktioniert über verschiedene Sprachmodelle hinweg und reduziert signifikant die Anzahl an fehlerhaften oder widersprüchlichen Selbstreflexionen.
Başka Bir Dile
kaynak içeriğinden
arxiv.org
Önemli Bilgiler Şuradan Elde Edildi
by Wenqi Zhang,... : arxiv.org 03-28-2024
https://arxiv.org/pdf/2401.02009.pdfDaha Derin Sorular