Основні поняття
ニューラルネットワークハードウェアアクセラレータのためのメモリ階層を提案し、層ごとの適応的なメモリアクセスパターンに合わせて最適なメモリ容量と高いアクセラレータ性能のバランスを取る。
Анотація
本論文では、ニューラルネットワークハードウェアアクセラレータ向けの柔軟で効率的なメモリ階層フレームワークを提案している。このフレームワークは、ディープニューラルネットワーク(DNN)の層ごとの適応的なメモリアクセスパターンに合わせて、オフチップメモリからオンデマンドでデータを要求し、アクセラレータの演算ユニットに提供することを目的としている。
フレームワークの特徴は以下の通り:
- 最大5階層のメモリ階層を柔軟に構成可能
- 最終階層にはシフトレジスタを選択的に追加可能
- DNNの層ごとのループネスト解析に基づき、ほとんどのループアンロールパターンを効率的に実行可能
合成結果と事例研究では、チップ面積を最大62.2%削減でき、同時にパフォーマンス低下を2.4%に抑えられることを示している。
Статистика
DNNの重みデータセットには単純なシフトサイクリックアクセスパターンが多く、1階層のメモリ階層で効率的に処理可能
入力データセットには複雑なパラレルネストパターンが存在し、現在のフレームワークでは効率的に対応できない
重みデータを保持するメモリモジュールだけで加速器チップ面積の70%以上を占めていたが、メモリ階層に置き換えることで62.2%の面積削減が可能
Цитати
"ニューラルネットワークハードウェアアクセラレータの開発において、適切なオンチップメモリ階層の開発は特に重要である。なぜなら、必要なメモリが全体チップ面積の大部分を占め、アクセラレータのエネルギー消費の大部分を担うからである。"
"メモリ階層の設計空間自体が膨大であるため、手動で全ての設定を検証するのは実際上不可能である。そのため、エンジニアがより大きな設計空間を簡単かつ迅速に探索・評価できるようサポートすることが重要である。"