核心概念
Die k-Support-Norm-Regularisierung ermöglicht die Erholung des wahren, dünnbesetzten Vektors unter Bedingungen, für die einige hinreichende Bedingungen für die Erholung mit der ℓ1-Norm nicht gelten.
摘要
Der Artikel führt einen neuen Algorithmus, IRKSN, ein, der die Erholung des wahren, dünnbesetzten Vektors unter Bedingungen ermöglicht, für die einige hinreichende Bedingungen für die Erholung mit der ℓ1-Norm nicht gelten.
Der Autor diskutiert den Unterschied zwischen diesen Bedingungen anhand eines detaillierten Beispiels. Außerdem wird eine Frühstoppschranke für den Modellfehler von IRKSN mit expliziten Konstanten angegeben, die die übliche lineare Rate für Sparse Recovery erreicht.
Schließlich wird die Anwendbarkeit des Algorithmus in mehreren Experimenten, einschließlich eines Unterstützungswiederherstellungsexperiments mit einer korrelierten Designmatrix, illustriert und gezeigt, dass er eine höhere F1-Punktzahl als seine Wettbewerber ermöglicht.
統計資料
Die Designmatrix X besteht aus n unabhängigen Stichproben von d (hier d = 50) korrelierten Gaußschen Zufallsvariablen {X1, .., Xd} mit Nullerwartung und Einheitsvarianz, so dass: ∀i ∈ {1, . . . , d} : E[Xi] = 0, E[X2
i ] = 1; und ∀(i, j) ∈ {1, . . . , d}2, i ≠ j : E[XiXj] = ρ|i−j|.
Der wahre Vektor w* ist auf einem zufällig ausgewählten Träger von k = 10 Nichtnulleinträgen unterstützt, wobei jeder Nichtnulleintrag aus einer Normalverteilung gezogen wird, und y wird mit einem Rauschvektor ϵ erhalten, der aus unabhängigen Stichproben aus einer Normalverteilung erstellt und skaliert wird, um ein gegebenes Signal-Rausch-Verhältnis (SNR) zu erzwingen: y = Xw* + ϵ mit dem Signal-Rausch-Verhältnis definiert als snr = ∥Xw*∥/∥ϵ∥.
引述
Keine relevanten Zitate gefunden.