المفاهيم الأساسية
大規模な言語モデルが人間の言語を習得したように、回路トランスフォーマーは電子デザインを征服する可能性を示す。
الملخص
言語モデルと同様に、回路モデルは次の論理ゲートを予測し、電子デザインタスクに取り組む。
回路エンコーディング、モデリング、デコーディング、最適化の包括的なパイプライン。
88MパラメータのTransformerモデル「Circuit Transformer」がロジック合成で優れた性能を発揮。
Monte-Carlo Tree Search(MCTS)により性能向上。
Abstract:
大規模な言語モデルが人間の言語を習得し、回路トランスフォーマーが電子デザインに応用される可能性を探る。
Introduction:
言語と同様に、回路も次の論理ゲートを予測して設計できるかどうかが問題となる。
Methods:
回路エンコード方法として記憶レスな深さ優先探索経路を提案。
等価保存復号化プロセスで厳密な等価性を確保。
回路生成プロセスは順次決定プロセスとして解釈可能。
Experiments:
小さなTransformerモデルで真理値表計算の実験。4入力AIGsで高い精度を達成。
ロジック合成タスクではCircuit Transformerがresyn2よりも優れた結果を示す。
الإحصائيات
大規模な言語モデルや88MパラメータのTransformer「Circuit Transformer」など
اقتباسات
"Can circuits also be mastered by a sufficiently large “circuit model”?" - Xihan Li et al.
"Experimentally, we trained a Transformer-based model of 88M parameters, named “Circuit Transformer”, which demonstrates impressive performance in end-to-end logic synthesis." - Xihan Li et al.