Core Concepts
FLEXNN introduces a flexible neural network accelerator that optimizes data movement and energy efficiency through adaptable dataflows and sparsity acceleration.
Abstract
FLEXNN introduces agile design principles for versatile dataflows, enhancing energy efficiency.
The architecture enables efficient processing of varying tensor dimensions in DNNs.
Sparsity-based acceleration logic optimizes computation by leveraging fine-grained sparsity in activations and weights.
FlexTree architecture dynamically adjusts adder tree depth for flexible partial sum accumulation.
Schedule-aware Tensor Distribution Network efficiently transfers data between memory and PE array based on optimal schedules.
Stats
データ移動コストがエネルギー消費に大きく影響し、データフローの柔軟性は最小限のデータ移動とエネルギー消費を実現する。
既存のDNNアクセラレータは固定スケジュールを採用しており、柔軟なハードウェア設計によるエネルギー効率最適化への関心が高まっている。
新しいスパース性加速ロジックは、非ゼロ値をスキップして冗長な計算を回避し、エネルギー消費を削減する。