核心概念
大規模言語モデルのインコンテキスト学習能力を活用し、Quality-Diversityアーカイブの多様性を活用して新しい高品質かつ多様なソリューションを生成する。
要約
本研究では、Quality-Diversity(QD)最適化のためのインコンテキストAIジェネレータ(In-context QD)を提案している。In-context QDは、事前学習された大規模言語モデルのインコンテキスト学習能力を活用し、QDアーカイブに保存された高品質かつ多様なソリューションの情報を利用して、新しい高品質かつ多様なソリューションを生成する。
具体的には、QDアーカイブから抽出したソリューションの情報をプロンプトのコンテキストとして与え、言語モデルにソリューションの生成を行わせる。コンテキストの構造や、クエリの設計など、プロンプトの設計が重要であることを示している。
実験では、BBOB関数、冗長なロボットアーム制御、六脚ロボットの歩行制御などのQDベンチマーク問題に適用し、Random SamplingやMAP-Elitesなどの既存手法と比較して優れた性能を示している。特に、高品質かつ多様なソリューションを効率的に発見できることが確認された。また、パラメータ空間の次元数やアーカイブサイズなどの設定に対しても頑健であることが示された。
統計
提案手法のIn-context QDは、Random Samplingやmap-Elitesなどの既存手法と比較して、BBOB関数やロボットアームタスクなどのQDベンチマーク問題において優れたパフォーマンスを示した。
In-context QDは、パラメータ空間の次元数が5次元や10次元、アーカイブサイズが400や1600といった設定に対しても頑健な性能を発揮した。
In-context QDでは、コンテキストの構造(ソリューションの並び順)やクエリの設計が重要であり、ソリューションの特徴量に基づいて並び替えたコンテキストが最も良い性能を示した。
引用
"大規模言語モデルのインコンテキスト学習能力を活用し、Quality-Diversityアーカイブの多様性を活用して新しい高品質かつ多様なソリューションを生成する。"
"コンテキストの構造や、クエリの設計など、プロンプトの設計が重要であることを示している。"
"In-context QDは、BBOB関数やロボットアームタスクなどのQDベンチマーク問題において優れたパフォーマンスを示した。"