Die Studie untersucht einen Ansatz, der Sprachmodelle durch die Verwendung von kontrastiven Beispielen besser an die Präferenzen der Nutzer anpassen kann. Dazu werden sowohl positive Beispiele, die die gewünschten Eigenschaften zeigen, als auch negative Beispiele, die unerwünschte Eigenschaften aufweisen, verwendet.
Die Autoren testen ihren Ansatz auf sowohl synthetischen als auch realen Datensätzen, darunter StackExchange und Reddit. Die Ergebnisse zeigen, dass der kontrastive Ansatz im Vergleich zum Standard-Few-Shot-Prompting deutlich bessere Leistungen erbringt, sowohl in Bezug auf die Qualität der generierten Antworten als auch auf die Effizienz der Prompts.
Ein interessanter Befund ist, dass selbst generierte negative Beispiele genauso effektiv sein können wie von Menschen geschriebene negative Beispiele. Dies deutet darauf hin, dass der Ansatz flexibel einsetzbar ist und nicht auf manuell erstellte negative Beispiele angewiesen ist.
Darüber hinaus untersuchen die Autoren, inwiefern Sprachmodelle in der Lage sind, aus den kontrastiven Beispielen selbstständig Instruktionen abzuleiten, die dann als Prompt verwendet werden können. Dieser Ansatz zeigt ebenfalls Verbesserungen gegenüber dem Standard-Few-Shot-Prompting, wenn auch nicht ganz so deutlich wie die Verwendung der vollständigen kontrastiven Beispiele.
Insgesamt demonstriert die Studie das Potenzial des kontrastiven Lernens im Kontext, um Sprachmodelle besser an die Präferenzen der Nutzer anzupassen und so die Qualität der generierten Antworten zu verbessern.
翻译成其他语言
从原文生成
arxiv.org
更深入的查询