Die Untersuchung zeigt, dass Große Sprachmodelle Schwierigkeiten haben, ihre eigenen Antworten zuverlässig selbst zu evaluieren und zu korrigieren. Oft liefern sie entweder übermäßig selbstbewusste oder inkonsistente Rückmeldungen, was die Effektivität der Selbstreflexion stark beeinträchtigt.
Um dies zu verbessern, schlagen die Autoren den Ansatz "Self-Contrast" vor. Dabei generiert das Sprachmodell zunächst eigenständig mehrere unterschiedliche Lösungsperspektiven für eine Aufgabe. Diese Perspektiven werden dann miteinander kontrastiert, um Unterschiede und mögliche Fehlerquellen zu identifizieren. Aus diesen Erkenntnissen wird eine detaillierte Checkliste erstellt, anhand derer das Modell seine Antworten überprüfen und korrigieren kann.
Die Experimente zeigen, dass Self-Contrast im Vergleich zur Standard-Selbstreflexion zu deutlich stabileren und genaueren Ergebnissen führt, sowohl bei mathematischen Reasoning-Aufgaben als auch bei kreativen Übersetzungsaufgaben. Der Ansatz funktioniert über verschiedene Sprachmodelle hinweg und reduziert signifikant die Anzahl an fehlerhaften oder widersprüchlichen Selbstreflexionen.
Para outro idioma
do conteúdo fonte
arxiv.org
Principais Insights Extraídos De
by Wenqi Zhang,... às arxiv.org 03-28-2024
https://arxiv.org/pdf/2401.02009.pdfPerguntas Mais Profundas