本論文では、ニューラルネットワークハードウェアアクセラレータ向けの柔軟で効率的なメモリ階層フレームワークを提案している。このフレームワークは、ディープニューラルネットワーク(DNN)の層ごとの適応的なメモリアクセスパターンに合わせて、オフチップメモリからオンデマンドでデータを要求し、アクセラレータの演算ユニットに提供することを目的としている。
フレームワークの特徴は以下の通り:
合成結果と事例研究では、チップ面積を最大62.2%削減でき、同時にパフォーマンス低下を2.4%に抑えられることを示している。
In un'altra lingua
dal contenuto originale
arxiv.org
Approfondimenti chiave tratti da
by Oliver Bause... alle arxiv.org 04-25-2024
https://arxiv.org/pdf/2404.15823.pdfDomande più approfondite