核心概念
本稿では、FPGA向け高位合成における課題である、未知のプログラムに対する性能予測の精度向上を目的とし、ドメイン汎化能力の高い階層型混合エキスパート(MoE)モデルを提案する。
要約
高位合成のための汎用的な学習手法:階層型混合エキスパートモデル
本稿は、FPGA向け高位合成におけるプログラム最適化を自動化する、階層型混合エキスパート(MoE)モデルを提案する研究論文である。
高位合成(HLS)は、ソフトウェアプログラムをFPGA回路に変換する際に、プログラマがハードウェアに関する深い知識を必要とする。本研究は、プログラムの構造からFPGAの性能を予測する機械学習モデルを開発し、未知のプログラムに対しても高精度な予測を実現することで、HLSの自動化を目指す。
従来のグラフニューラルネットワーク(GNN)ベースの性能予測モデルは、学習データと異なる構造を持つプログラムに対して予測精度が低下する問題点があった。本研究では、この問題をドメイン汎化問題として捉え、プログラム構造の異なる部分に特化した複数のエキスパートモデルを組み合わせることで、汎化能力を向上させた階層型MoEモデルを提案する。
具体的には、プログラムのノード、基本ブロック、グラフ全体の3つの粒度でMoEを適用し、それぞれの粒度における予測結果を統合する階層的な構造を持つ。さらに、エキスパートモデル間の学習の偏りを抑制するために、2段階学習と固定初期化を用いた学習方法を提案する。