Centrala begrepp
HOGA proposes a novel attention-based model for learning circuit representations in a scalable and generalizable manner.
Sammanfattning
最近、EDAの機械学習における興味が高まっており、GNNはEDAコミュニティで人気を博している。しかし、大規模なグラフへのGNNトレーニングは難しい課題であり、一般的なデータセットとは異なる回路データセットに対する汎化能力も未解明である。そこで、HOGAはホップごとの特徴量を計算し、ゲート型自己注意モジュールを使用してノード表現を学習する新しいアプローチを提案している。このアプローチにより、HOGAは分散トレーニングに適応し、異なる回路設計に対して高品質なノード表現を生成する。
Statistik
HOGAは従来のGNNよりもQoR予測の推定誤差を46.76%削減する。
HOGAは未知の設計における機能ブロックの識別精度を10.0%向上させる。
HOGAのトレーニング時間は計算リソースの増加とほぼ線形的に減少する。