核心概念
本文推導出隨機特徵脊迴歸測試誤差的確定性等價物,並分析其在不同尺度法則下的表現,進一步揭示了模型大小、數據量和泛化誤差之間的關係。
摘要
文獻綜述
- 過參數化神經網路的泛化能力挑戰了傳統統計學觀點,近年來,隨機特徵模型作為一種更簡單的學習任務,被廣泛用於研究這種現象。
- 隨機特徵最初被引入是為了降低核方法的計算成本,但會引入逼近誤差。
- 近年來,隨機特徵模型作為研究雙層神經網路在惰性訓練機制下泛化特性的代理模型而受到歡迎。
- 然而,現有研究大多是在大數據維度的漸近極限下進行的,缺乏對維度無關的泛化誤差刻畫。
本文貢獻
本文旨在提供一種無關維度的泛化誤差刻畫,主要貢獻如下:
- 推導出隨機特徵脊迴歸(RFRR)測試誤差的確定性逼近:在特徵映射特徵函數滿足一定集中性假設下,證明了RFRR的測試誤差可以通過一個僅依賴於特徵映射特徵值的閉式表達式很好地逼近。該逼近保證是非漸近的、乘法的,並且與特徵映射維度無關,允許無限維特徵。
- 研究了在目標函數和特徵譜服從冪律衰減的設定下的誤差尺度法則:提供了不同尺度機制及其之間交叉的完整圖景,並推導出實現最優極小化誤差率所需的最小子特徵數的緊緻結果。
主要結果
- 確定性等價物:在特徵映射特徵函數滿足一定集中性假設下,RFRR的測試誤差可以通過一個僅依賴於特徵映射特徵值的確定性等價物很好地逼近。
- 尺度法則:在目標函數和特徵譜服從冪律衰減的設定下,推導出RFRR測試誤差的尺度法則,並分析了偏差和方差項的不同主導區域。
- 最優速率:推導出實現最優極小化誤差率所需的最小子特徵數的緊緻結果,並與現有文獻中的結果進行了比較。
總結
本文通過推導隨機特徵脊迴歸測試誤差的確定性等價物,並分析其在不同尺度法則下的表現,為理解隨機特徵模型的泛化能力提供了新的見解。
統計資料
在 r ≥ 1/2 的情況下,實現最優速率 γ⋆ 所需的最小子特徵數 p⋆ = nq⋆ 嚴格小於 Rudi and Rosasco [2017] 中的下界 p > p0。