Core Concepts
OPTIN フレームワークを使用して、再学習を必要とせずに、さまざまなドメインにわたって事前学習された変換器アーキテクチャの効率を向上させることができる。
Abstract
本論文では、OPTIN (One-shot Pruning Technique for Interchangeable Networks) フレームワークを紹介する。このフレームワークは、再学習を必要とせずに、事前学習された変換器アーキテクチャの効率を向上させることができる。
OPTIN フレームワークの主な特徴は以下の通り:
中間特徴の蒸留を活用し、モデルパラメータの長距離依存関係(軌跡と呼ばれる)をキャプチャすることで、パラメータの重要度を評価する。
自然言語処理、画像分類、転移学習、セマンティックセグメンテーションなどの様々なタスクで、優れた性能を発揮する。
FLOP制約の下で、精度性能を維持しつつ、スループットを向上させることができる。
自然言語処理タスクでは、ベースラインから2%以下の精度低下で40%のFLOPS圧縮を達成。
画像分類タスクでは、最先端手法と同等以上の精度を維持しつつ、FLOPSを5%以上削減できる。
セマンティックセグメンテーションタスクでは、FLOPSを24%削減しつつ、mIoUを4%低下させるにとどめる。
CNNアーキテクチャにも適用可能で、従来手法を上回る性能を示す。
OPTIN フレームワークは、再学習を必要とせずに、様々なドメインの変換器アーキテクチャを効率的に圧縮できる、汎用的なモデル圧縮手法として位置づけられる。
Stats
自然言語処理タスクでは、ベースラインから2%以下の精度低下で40%のFLOPS圧縮を達成した。
画像分類タスクでは、最先端手法と同等以上の精度を維持しつつ、FLOPSを5%以上削減できた。
セマンティックセグメンテーションタスクでは、FLOPSを24%削減しつつ、mIoUを4%低下させるにとどめた。