المفاهيم الأساسية
Große Sprachmodelle können durch die Einführung von Coroutine-basierten Inhaltsgenerierungsbeschränkungen mittels einer vordefinierten kontextfreien Grammatik dazu gebracht werden, formal korrekte Ausgaben zu generieren, die den Programmkonventionen entsprechen.
الملخص
Dieser Artikel untersucht die Herausforderungen bei der Verwendung großer Sprachmodelle (LLMs) zur Generierung von domänenspezifischen Sprachen (DSLs), die von Computerprogrammen verarbeitet werden können.
Zunächst wird erläutert, dass DSLs in vielen Bereichen wie Datenformate, Abfragesprachen und Auszeichnungssprachen weit verbreitet sind und von Entwicklern häufig verwendet werden. LLMs haben zwar beeindruckende Fähigkeiten beim Lernen von Mustern aus großen Textkorpora, haben aber Schwierigkeiten, strukturierte Inhalte zu erzeugen, die bestimmten Konventionen strikt folgen.
Die Autoren schlagen ein Schema vor, um LLMs dazu zu bringen, hochgradig verwendbare Inhalte für Computer zu generieren, ohne dass eine Feinabstimmung oder zusätzliche neuronale Netzwerkberechnungen erforderlich sind. Dazu werden Coroutine-basierte Inhaltsgenerierungsbeschränkungen durch eine vorab vereinbarte kontextfreie Grammatik (CFG) eingeführt, die das autoregressive Transformator-Modell beim Decodieren dazu bringt, die richtigen Token zu sampeln, um eine programmkonforme Form zu bilden.
Die Leistungsschwächen bestehender LLMs bei der DSL-Generierung werden anhand von Experimenten zum "Klammernpaare-Abgleich" demonstriert. Dabei zeigt sich, dass die Fehlerrate der Modelle bei einer Länge der generierten DSLs von über 36 bzw. 282 Zeichen 95% erreicht.
Zur Lösung dieses Problems wird ein Coroutine-basierter DSL-Generierungs- und -Parsing-Apparat namens "YieldLang" vorgestellt. Experimente mit diesem Ansatz auf Datensätzen wie JSON, Mermaid-Flussdiagrammen und Funktionsaufrucksausdrücken zeigen eine Verbesserung der Genauigkeit um den Faktor 1,09 bis 11,6 im Vergleich zu Referenzwerten. Im besten Fall kann die Anzahl der Samples, die das LLM zur JSON-Generierung benötigt, auf etwa 16,5% der Referenzwerte reduziert werden.
الإحصائيات
Die Fehlerrate von Modellen wie GPT-2 und Gemma erreicht 95%, wenn die Länge der generierten DSLs größer als 36 bzw. 282 Zeichen ist.
Der Ansatz in dieser Arbeit verbessert die Genauigkeit um den Faktor 1,09 bis 11,6 im Vergleich zu den Referenzwerten.
Im besten Fall kann die Anzahl der Samples, die das LLM zur JSON-Generierung benötigt, auf etwa 16,5% der Referenzwerte reduziert werden.
اقتباسات
"Große Sprachmodelle haben es ermöglicht, dass Computer ein gewisses Maß an Fähigkeit zum Verstehen und Generieren natürlicher Sprache sowie eine gewisse Verallgemeinerungsfähigkeit über verschiedene Domänen hinweg besitzen."
"Wenn Entwickler Anwendungen auf der Grundlage von LLMs wie in Abbildung 1 dargestellt entwickeln müssen, stoßen sie oft auf einige Schmerzen."
"Durch die Einführung von Coroutine-basierten Inhaltsgenerierungsbeschränkungen mittels einer vordefinierten kontextfreien Grammatik (CFG) können LLMs dazu gebracht werden, formal korrekte Ausgaben zu generieren, die den Programmkonventionen entsprechen."