Die Studie untersuchte die Verzerrungen von zwei großen Sprachmodellen (gpt-3.5-turbo und claude-instant-1.2) bei der Auswahl von Objekten aus Listen. Es wurden verschiedene Faktoren wie Listenlänge, Objektidentität, Temperatur und Modelltyp analysiert, um die Auswirkungen auf die Auswahlwahrscheinlichkeiten zu verstehen.
Die Ergebnisse zeigen, dass das Primacy-Bias ein Problem darstellt, das jedoch stark vom verwendeten Modell abhängt. Die Identität und Position der Objekte in der Liste haben einen signifikanten Einfluss auf die Auswahlwahrscheinlichkeiten. Beim Vergleich der Modelle wurden inkonsistente Verzerrungen auf Basis von Position und Buchstaben/Zahlen festgestellt.
Der Einsatz von Guard Rails, einer Methode zur Strukturierung der Modellausgabe, erhöht das Primacy-Bias und verringert die Befolgung der Anweisungen. Dies wird auf eine erhöhte kognitive Belastung durch den Guard-Rail-Schritt zurückgeführt, die zu einem menschenähnlichen kompensatorischen Verhalten führt. Eine zweistufige Abfragemethode, die den Guard-Rail-Schritt vom Auswahlschritt trennt, reduziert diese Verzerrungen.
Vers une autre langue
à partir du contenu source
arxiv.org
Questions plus approfondies