Core Concepts
Durch einfache Prompt-Engineering-Techniken wie "Pretended Chain of Thought" und "Knowledge Enhancement" lässt sich die Qualität der Satzeinbettungen generativer Sprachmodelle deutlich verbessern, ohne dass zusätzliches Training erforderlich ist.
Abstract
Die Studie untersucht Methoden zur Verbesserung der Satzeinbettungen in generativen Sprachmodellen wie GPT, OPT, LLaMA und Mistral. Zunächst zeigen die Autoren, dass die weit verbreitete "Explicit One-word Limitation" (EOL) zwar die Leistung von generativen Modellen bei direkter Inferenz verbessert, aber nicht zwingend für diskriminative Modelle oder das Fine-Tuning generativer Modelle erforderlich ist.
Darauf aufbauend schlagen die Autoren zwei neuartige Prompt-Engineering-Techniken vor: "Pretended Chain of Thought" und "Knowledge Enhancement". Diese Methoden erweitern den EOL-Prompt um zusätzliche Präfixe, um die kontextuelle Lernfähigkeit und das Textverständnis der Modelle besser auszunutzen.
Die umfangreichen Experimente zeigen, dass diese Techniken die Leistung der Satzeinbettungen auf gängigen Benchmarks deutlich verbessern können, ohne dass zusätzliches Training erforderlich ist. Dabei übertreffen die Ergebnisse sogar die von überwacht fein-abgestimmten Modellen wie SimCSE-BERT. Zudem benötigen die vorgeschlagenen Methoden deutlich weniger GPU-Speicher als herkömmliche Ansätze.
Die Autoren analysieren auch, wie die Techniken die Eigenschaften der Satzeinbettungen in Bezug auf Ausrichtung und Gleichmäßigkeit verbessern. Außerdem zeigen sie, wie "Knowledge Enhancement" die Aufmerksamkeitsverteilung des Modells auf die semantisch wichtigsten Elemente des Satzes lenkt.
Stats
Die Verwendung von "Pretended Chain of Thought" und "Knowledge Enhancement" in Kombination mit dem EOL-Prompt führt zu einer Steigerung der durchschnittlichen Spearman-Korrelation über sieben STS-Benchmarks von 68,76 auf 76,02 für LLaMA7b und von 70,03 auf 77,14 für LLaMA27b.
Der GPU-Speicherverbrauch für die Ableitung der Satzeinbettungen mit den vorgeschlagenen Methoden ist deutlich geringer als bei überwacht fein-abgestimmten Ansätzen wie SimCSE.
Quotes
"Durch einfache Prompt-Engineering-Techniken wie 'Pretended Chain of Thought' und 'Knowledge Enhancement' lässt sich die Qualität der Satzeinbettungen generativer Sprachmodelle deutlich verbessern, ohne dass zusätzliches Training erforderlich ist."
"Die vorgeschlagenen Methoden übertreffen sogar die Ergebnisse von überwacht fein-abgestimmten Modellen wie SimCSE-BERT, benötigen aber deutlich weniger GPU-Speicher."