Core Concepts
RDPを活用した静的最適化により、動的DNNの実行性能を向上させる。
Abstract
近年、多くのコンパイルおよびランタイムシステムが開発されてきたが、これまで主に静的DNNに焦点が当てられていた。しかし、入力や実行に依存するテンソル形状やサイズ、使用される演算子セットなどが動的である動的DNNは一般的になってきている。本論文では、動的DNNを最適化する包括的なフレームワークであるSoD2を提案している。アプローチの基盤は、DNNを構成する一般的な演算子の分類とそれらを利用したランクおよび次元伝播(RDP)メソッドである。このフレームワークは演算子の形状を既知定数、象徴定数、またはこれらの操作として静的に決定し、次にRDPを使用して融合されたコード生成や実行(順序)計画などの最適化を可能にする。10種類の新興動的DNNでフレームワークを評価し、既存システムと比較して実行待ち時間とメモリ要件の削減を示している。
Stats
SoD2は他のシステムよりも3.9倍速く実行されることが示されています。
RDPによりメモリ消費量が88%削減されました。
SoD2は10種類の新興動的DNNモデルで広範囲に評価されました。
Quotes
"Our evaluation results show that SoD2 runs up to 3.9× faster than these systems while saving up to 88% peak memory consumption."
"This paper presents the first nuanced approach for optimizing DNN inference in the presence of dynamic features."