核心概念
透過將低階電路資訊以圖形表示的方式,利用知識蒸餾技術教授大型語言模型,能有效提升其預測電路品質指標(如面積和延遲)的能力。
參考資訊: Moravej, R., Bodhe, S., Zhang, Z., Ch´etelat, D., Tsaras, D., Zhang, Y., ... & Yuan, M. (2024). The Graph’s Apprentice: Teaching an LLM Low Level Knowledge for Circuit Quality Estimation. arXiv preprint arXiv:2411.00843v1.
研究目標: 本研究旨在開發一種端到端的機器學習模型,可以直接從 Verilog 程式碼預測電路品質指標,例如面積和延遲,而無需執行成本高昂的邏輯合成過程。
方法: 研究人員開發了一個名為 VeriDistill 的模型,該模型採用預先訓練好的 Verilog 大型語言模型 (LLM) CodeV 作為編碼器,並訓練一個小型神經網路作為解碼器,從 LLM 的隱藏狀態預測電路品質指標。此外,他們還利用知識蒸餾技術,將一個在低階電路表示(查找表,LUT)上訓練的圖神經網路 (GNN) 的知識轉移到 VeriDistill 模型中。
主要發現: 實驗結果顯示,VeriDistill 在大型 Verilog 數據集上優於現有方法,尤其是在預測電路面積方面。
VeriDistill 模型在預測各種規模的電路品質指標方面表現出一致的準確性,而其他方法則主要集中在小型電路上。
知識蒸餾技術對於提升 VeriDistill 模型的效能至關重要,特別是在處理訓練數據中較少出現的大型電路時。
將 VeriDistill 模型應用於未知的 OpenABCD 數據集時,知識蒸餾技術也顯著提高了模型的泛化能力。
主要結論: 研究結果表明,Verilog LLM 可以學習 Verilog 程式碼所代表電路的抽象特徵,並利用這些特徵預測電路品質。透過知識蒸餾技術,可以有效地將低階電路資訊整合到 LLM 中,從而顯著提高預測精度和泛化能力。
意義: 這項研究為電路設計自動化領域帶來了新的突破,為開發更快速、更高效的電路設計工具提供了新的思路。
局限性和未來研究方向: 未來的研究可以探索其他知識蒸餾技術,以進一步提高模型的效能。此外,還可以研究如何將 VeriDistill 模型應用於其他電路設計任務,例如邏輯優化和時序分析。
統計資料
數據集包含超過 16,000 個 Verilog 程式碼範例,並包含相應的電路面積和延遲標籤。
大部分 Verilog 程式碼範例包含少於 2000 個詞符,對應的電路面積和延遲較小。
使用 7 奈米製程技術進行邏輯合成和電路品質指標評估。