核心概念
BF-IMNA 是一種新型態的記憶體內運算 (IMC) 加速器,它利用位元序列、字元並列的關聯處理器 (AP),實現了對靜態和動態混合精度神經網路推斷的有效支援,並具有與當前最先進加速器相當的性能。
研究目標:
本研究論文提出了一種名為 BF-IMNA 的新型態記憶體內運算 (IMC) 加速器架構,旨在解決現有神經網路加速器在支援混合精度運算方面的限制,並實現高效能的卷積神經網路 (CNN) 推斷。
方法:
BF-IMNA 採用基於內容可定址記憶體 (CAM) 的關聯處理器 (AP) 作為其基本建構模組。AP 是一種位元序列、字元並列的 SIMD 類似引擎,能夠有效地執行混合精度運算,而無需在執行時進行硬體重新配置。BF-IMNA 包含多個叢集,每個叢集由多個計算 AP (CAP) 和一個記憶體 AP (MAP) 組成。計算 AP 負責執行 CNN 運算,而記憶體 AP 則負責儲存資料並管理資料在計算 AP 之間的傳輸。
主要發現:
BF-IMNA 能夠在不影響準確性的情況下,透過停用最高有效位元 (MSB) 來支援不同精度的神經網路推斷。
BF-IMNA 在執行 ImageNet 推斷任務時,與最先進的加速器(如 PipeLayer 和 ISAAC)相比,展現出具有競爭力的性能。
BF-IMNA 在使用固定精度配置時,與 ISAAC 相比,可實現高達 2.95 倍的吞吐量提升,同時能源效率提高 1.19 倍;與 PipeLayer 相比,可實現高達 3.66 倍的能源效率提升,同時吞吐量提高 1.02 倍。
BF-IMNA 的位元流動性使其能夠在不同的延遲預算下,實現 HAWQ-V3 的逐層混合精度配置,從而在準確性和能源延遲積 (EDP) 之間取得平衡。
主要結論:
BF-IMNA 是一種很有前景的 CNN 加速器架構,它能夠有效地支援靜態和動態混合精度運算,並具有與當前最先進加速器相當的性能。
意義:
BF-IMNA 的提出為開發高效能、低功耗的神經網路加速器提供了一種新的思路,有助於推動邊緣運算和物聯網應用中深度學習技術的發展。
限制和未來研究:
本研究主要關注 BF-IMNA 在 CNN 推斷任務上的性能表現,未來可以進一步探討其在其他深度學習任務(如訓練)上的應用。此外,還可以進一步優化 BF-IMNA 的架構設計和資料排程策略,以進一步提升其性能和能源效率。
統計資料
BF-IMNA 在使用固定精度配置時,與 ISAAC 相比,可實現高達 2.95 倍的吞吐量提升,同時能源效率提高 1.19 倍。
BF-IMNA 在使用固定精度配置時,與 PipeLayer 相比,可實現高達 3.66 倍的能源效率提升,同時吞吐量提高 1.02 倍。