本研究では、ニューラルアーキテクチャ検索(NAS)の計算コストを大幅に削減するための手法を提案している。具体的には以下の通り:
検索空間内のモデルの順位相関を最大化しつつ、学習コストを大幅に削減する「プロキシ化された学習スキーム」を見つける手法を開発した。
この手法を用いて、ImageNet2012データセットに対するNASベンチマーク「Accel-NASBench」を構築した。これは、大規模データセットに対するNASベンチマークとしては初めてのものである。
さらに、GPUやTPU、FPGAなどの加速器デバイスの推論性能も同時に評価できるようにした。これにより、精度と推論性能の両面を最適化するNAS手法の評価が可能となった。
様々なNAS最適化手法やハードウェアプラットフォームを用いた実験を通じて、Accel-NASBenchが正確にモデルの性能を予測でき、ゼロコストでも高品質なモデルを発見できることを示した。
翻譯成其他語言
從原文內容
arxiv.org
深入探究