Belangrijkste concepten
MA-BBOBベンチマーク関数を使用して、自動アルゴリズム選択モデルの一般化能力に対する学習インスタンス選択の影響を分析した。学習インスタンスの分布が評価データと一致するほど、選択器のパフォーマンスが向上することが示された。また、学習データ量を増やすことで、学習データと評価データの分布の不一致による悪影響を軽減できることが明らかになった。
Samenvatting
本研究では、MA-BBOBベンチマーク関数を使用して、自動アルゴリズム選択モデルの一般化能力に対する学習インスタンス選択の影響を分析した。
まず、MA-BBOBで生成された関数とBBOB関数の特徴を比較し、MA-BBOBが BBOB関数の特徴を補完していることを示した。次に、8つのアルゴリズムのパフォーマンスを分析し、アルゴリズム間の補完性を確認した。
その上で、3つの学習インスタンス選択手法(ランダム選択、多様性ベース選択、BBOB関数使用)を比較した。その結果、学習インスタンスの分布が評価データと一致するほど、選択器のパフォーマンスが向上することが示された。一方で、BBOB関数のみを使用した学習では、一般化性能が低いことが明らかになった。
さらに、学習データ量を増やすことで、学習データと評価データの分布の不一致による悪影響を軽減できることが分かった。つまり、十分な量の学習データを確保することで、分布の違いによる問題を緩和できるということである。
以上より、自動アルゴリズム選択モデルの構築においては、学習インスタンスの選択と学習データ量のバランスが重要であることが示された。実用的な場面では、対象問題の分布が事前に分からない場合が多いため、幅広い問題に対応できるよう、慎重な学習インスタンス選択と十分な学習データ量の確保が求められる。
Statistieken
最良ソルバー(SBS)と仮想最良ソルバー(VBS)の平均AOCCの差は0.043であり、アルゴリズム選択の余地があることが示された。
最も補完性の高いアルゴリズムポートフォリオは、modCMAを除く7つのアルゴリズムで、VBS-SBS差は0.083であった。