Core Concepts
大規模な言語モデル(LLMs)は、進化的最適化アルゴリズムを実装できる可能性があることを示唆する研究。
Abstract
大規模Transformerモデルは、多くの「インコンテキスト学習アルゴリズム」を実装できる。これには、勾配降下法、分類、シーケンス補完、変換、改善などが含まれる。本研究では、従来の作業仕様に焦点を当てた以前の研究とは異なり、「黒箱最適化」というタスクに対してLLMsが原則的に進化的最適化アルゴリズムを実装できるかどうかを調査している。以前の作品は単に言語ベースのタスク仕様に焦点を当てていましたが、私たちは前進し、「EvoLLM」と呼ぶLLMベースの進化戦略を取得することができます。このセットアップでは、ランダムサーチやガウシアン・ヒル・クライミングなどの基準アルゴリズムよりも優れたパフォーマンスが得られます。
Stats
LLMベースの進化戦略(EvoLLM)は合成BBOB関数および小規模神経進化タスクで他の伝統的な基準よりも優れたパフォーマンスを発揮します。
結果は10回および5回それぞれの独立した実行で平均されます。
Quotes
"Large Transformer models are capable of implementing a plethora of so-called in-context learning algorithms."
"We investigate whether large language models (LLMs) are in principle capable of implementing evolutionary optimization algorithms."
"Our setup allows the user to obtain an LLM-based evolution strategy, which we call ‘EvoLLM’, that robustly outperforms baseline algorithms."