Der Artikel untersucht, wie man große Sprachmodelle (LLMs) dazu bringt, Benutzerintentionen mit komplexen Ein-/Ausgabe-Spezifikationen besser zu befolgen.
Zunächst wird erläutert, dass LLMs zwar gut darin sind, Code aus natürlicher Sprache zu generieren, aber Schwierigkeiten haben, ihre Ausgaben an zusätzliche Ein-/Ausgabe-Spezifikationen anzupassen. Dies ist besonders problematisch in der Domäne der Datenwissenschaft, wo explizite Ein-/Ausgabe-Spezifikationen für die Klarheit erforderlich sind.
Um dieses Problem anzugehen, schlagen die Autoren GIFT4CODE vor, einen neuartigen Ansatz für das Finetuning von LLMs in Bezug auf Ein-/Ausgabe-Spezifikationen. Der Schlüssel ist die Verwendung von synthetischen Daten, die vom LLM selbst erzeugt werden. Dabei werden die Intents mit Ein-/Ausgabe-Spezifikationen angereichert, die aus der Programmausführung abgeleitet werden. Dies ermöglicht es dem Modell, Benutzerintentionen besser an die spezifizierten Ein-/Ausgabe-Anforderungen anzupassen.
Die Autoren evaluieren ihren Ansatz auf zwei Datenwissenschafts-Benchmarks, ARCADE und DS-1000. Die Ergebnisse zeigen eine deutliche Verbesserung der Fähigkeit des LLMs, Code zu generieren, der nicht nur ausführbar, sondern auch genau auf die Benutzerspezifikationen abgestimmt ist.
Naar een andere taal
vanuit de broninhoud
arxiv.org
Belangrijkste Inzichten Gedestilleerd Uit
by Yeming Wen,P... om arxiv.org 03-18-2024
https://arxiv.org/pdf/2402.08073.pdfDiepere vragen