Core Concepts
Kontrastives Prompting (CP) verbessert die Fähigkeit großer Sprachmodelle (LLMs), komplexe Schlussfolgerungen zu ziehen, indem es sie dazu bringt, sowohl korrekte als auch falsche Antworten zu generieren.
Abstract
Die Studie untersucht, wie kontrastives Prompting (CP) die Fähigkeiten großer Sprachmodelle (LLMs) zur komplexen Schlussfolgerung signifikant verbessern kann. Die Autoren zeigen, dass LLMs gute kontrastive Denker sind, indem sie einfach "Lass uns eine richtige und eine falsche Antwort geben" vor den Antworten der LLMs hinzufügen. Experimente mit zwei großen Sprachmodellen zeigen, dass nullstelliges kontrastives Prompting die Leistung bei einer Reihe von Rechen-, Allgemeinwissens- und symbolischen Reasoning-Aufgaben ohne handgefertigte Beispiele für wenige Schüsse verbessert, wie z.B. eine Steigerung der Genauigkeit auf GSM8K von 35,9% auf 88,8% und auf AQUA-RAT von 41,3% auf 62,2% mit dem state-of-the-art GPT-4-Modell. Die Methode übertrifft nicht nur nullstelliges CoT und wenige Schüsse CoT in den meisten Rechen- und Allgemeinwissens-Reasoning-Aufgaben, sondern kann auch nahtlos mit bestehenden Prompting-Methoden integriert werden, was zu verbesserten oder vergleichbaren Ergebnissen im Vergleich zu state-of-the-art-Methoden führt.
Stats
Tim zieht 5 Bäume auf und erntet jedes Jahr 6 Zitronen von jedem Baum.
In einem Jahrzehnt erntet er insgesamt 300 Zitronen.
Quotes
"Lass uns eine richtige und eine falsche Antwort geben."
"Lass uns Schritt für Schritt denken und sowohl eine richtige als auch eine falsche Antwort geben."