Alapfogalmak
主動學習通過優先選擇對模型訓練最有價值的數據,可以顯著提高大規模視覺模型的訓練效率,並降低計算成本。
論文資訊
標題:差生出良師:主動學習加速大規模視覺理解
作者:Talfan Evans, Shreya Pathak, Hamza Merzic, Jonathan Schwarz, Ryutaro Tanno, Olivier J. Hénaff
機構:Google DeepMind, University College London
研究背景
隨著視覺和語言模型規模的擴大,訓練所需的計算量呈指數級增長。
主動學習通過選擇最有價值的數據進行訓練,可以提高數據效率,降低訓練成本。
研究方法
本文提出了一種基於代理模型的主動學習方法,稱為 ClassAct 和 ActiveCLIP。
該方法使用小型代理模型為候選訓練數據計算“可學習性”分數,並根據分數對數據進行優先排序,用於訓練更大的模型。
主要發現
與傳統的隨機抽樣訓練相比,使用 ClassAct 和 ActiveCLIP 方法訓練的模型在 JFT 和 ALIGN 數據集上分別減少了 46% 和 51% 的訓練更新次數,並節省了高達 25% 的總計算量。
該方法與數據優化和學習目標相輔相成,在多模態遷移學習任務中取得了新的最佳性能。
數據選擇策略可以從預先訓練的模型中輕鬆獲得,並應用於不同但相關的任務。
研究意義
本文提出的主動學習方法為大規模視覺模型的訓練提供了一種高效且通用的解決方案。
該方法可以顯著降低訓練成本,並提高模型性能。
研究限制和未來方向
本文主要關注圖像的監督式預訓練,未來可以將該方法擴展到其他模態和訓練方案,例如語言、視頻和生成式建模。
未來可以探索更積極的數據選擇策略,以進一步提高訓練效率。
Statisztikák
使用 ClassAct 和 ActiveCLIP 方法訓練的模型在 JFT 和 ALIGN 數據集上分別減少了 46% 和 51% 的訓練更新次數。
使用 ClassAct 和 ActiveCLIP 方法訓練的模型在 JFT 和 ALIGN 數據集上節省了高達 25% 的總計算量。