本研究では、ニューラルアーキテクチャ検索(NAS)の計算コストを大幅に削減するための手法を提案している。具体的には以下の通り:
検索空間内のモデルの順位相関を最大化しつつ、学習コストを大幅に削減する「プロキシ化された学習スキーム」を見つける手法を開発した。
この手法を用いて、ImageNet2012データセットに対するNASベンチマーク「Accel-NASBench」を構築した。これは、大規模データセットに対するNASベンチマークとしては初めてのものである。
さらに、GPUやTPU、FPGAなどの加速器デバイスの推論性能も同時に評価できるようにした。これにより、精度と推論性能の両面を最適化するNAS手法の評価が可能となった。
様々なNAS最適化手法やハードウェアプラットフォームを用いた実験を通じて、Accel-NASBenchが正確にモデルの性能を予測でき、ゼロコストでも高品質なモデルを発見できることを示した。
Sang ngôn ngữ khác
từ nội dung nguồn
arxiv.org
Thông tin chi tiết chính được chắt lọc từ
by Afzal Ahmad,... lúc arxiv.org 04-15-2024
https://arxiv.org/pdf/2404.08005.pdfYêu cầu sâu hơn