Der Artikel untersucht, wie man große Sprachmodelle (LLMs) dazu bringt, Benutzerintentionen mit komplexen Ein-/Ausgabe-Spezifikationen besser zu befolgen.
Zunächst wird erläutert, dass LLMs zwar gut darin sind, Code aus natürlicher Sprache zu generieren, aber Schwierigkeiten haben, ihre Ausgaben an zusätzliche Ein-/Ausgabe-Spezifikationen anzupassen. Dies ist besonders problematisch in der Domäne der Datenwissenschaft, wo explizite Ein-/Ausgabe-Spezifikationen für die Klarheit erforderlich sind.
Um dieses Problem anzugehen, schlagen die Autoren GIFT4CODE vor, einen neuartigen Ansatz für das Finetuning von LLMs in Bezug auf Ein-/Ausgabe-Spezifikationen. Der Schlüssel ist die Verwendung von synthetischen Daten, die vom LLM selbst erzeugt werden. Dabei werden die Intents mit Ein-/Ausgabe-Spezifikationen angereichert, die aus der Programmausführung abgeleitet werden. Dies ermöglicht es dem Modell, Benutzerintentionen besser an die spezifizierten Ein-/Ausgabe-Anforderungen anzupassen.
Die Autoren evaluieren ihren Ansatz auf zwei Datenwissenschafts-Benchmarks, ARCADE und DS-1000. Die Ergebnisse zeigen eine deutliche Verbesserung der Fähigkeit des LLMs, Code zu generieren, der nicht nur ausführbar, sondern auch genau auf die Benutzerspezifikationen abgestimmt ist.
A otro idioma
del contenido fuente
arxiv.org
Ideas clave extraídas de
by Yeming Wen,P... a las arxiv.org 03-18-2024
https://arxiv.org/pdf/2402.08073.pdfConsultas más profundas