Core Concepts
Ein neuartiger Ansatz, der leistungsfähige Große Sprachmodelle (LLM) als Suchoperatoren in einem mehrzieligen evolutionären Optimierungsrahmen (MOEA/D) verwendet, um konkurrenzfähige Ergebnisse auf verschiedenen Testinstanzen zu erzielen.
Abstract
Der Artikel untersucht einen neuartigen Ansatz, der leistungsfähige Große Sprachmodelle (LLM) nutzt, um Suchoperatoren für mehrzieliges evolutionäres Optimieren (MOEA) zu entwerfen. Durch geeignetes Prompt-Engineering kann ein allgemeines LLM als Black-Box-Suchoperator für den zersetzungsbasierten MOEA (MOEA/D) in einer Zero-Shot-Weise dienen. Darüber hinaus wird durch Lernen aus dem LLM-Verhalten ein expliziter White-Box-Operator mit Zufälligkeit entwickelt und eine neue Version von MOEA/D, genannt MOEA/D-LO, vorgeschlagen.
Die experimentellen Studien auf verschiedenen Testbenchmarks zeigen, dass der vorgeschlagene Ansatz wettbewerbsfähige Leistungen mit weit verbreiteten MOEAs erzielen kann. Es ist auch vielversprechend zu sehen, dass der Operator, der nur aus wenigen Instanzen gelernt wurde, eine robuste Verallgemeinerungsleistung auf ungesehenen Problemen mit ganz unterschiedlichen Mustern und Einstellungen aufweist. Die Ergebnisse zeigen das Potenzial der Verwendung von vortrainierten LLMs beim Entwurf von MOEAs.
Stats
Die Hypervolumen-Werte (HV) auf fünf RE-Testinstanzen sind:
RE21: 0.7936
RE22: 0.6853
RE23: 1.1561
RE24: 1.153
RE25: 1.0812
Quotes
Keine relevanten Zitate gefunden.