本論文では、ニューラルネットワークハードウェアアクセラレータ向けの柔軟で効率的なメモリ階層フレームワークを提案している。このフレームワークは、ディープニューラルネットワーク(DNN)の層ごとの適応的なメモリアクセスパターンに合わせて、オフチップメモリからオンデマンドでデータを要求し、アクセラレータの演算ユニットに提供することを目的としている。
フレームワークの特徴は以下の通り:
合成結果と事例研究では、チップ面積を最大62.2%削減でき、同時にパフォーマンス低下を2.4%に抑えられることを示している。
Para Outro Idioma
do conteúdo original
arxiv.org
Principais Insights Extraídos De
by Oliver Bause... às arxiv.org 04-25-2024
https://arxiv.org/pdf/2404.15823.pdfPerguntas Mais Profundas