Der Artikel präsentiert ein vereinheitlichtes neuronales Modell für lineare und nichtlineare Hauptkomponentenanalyse (PCA), das als σ-PCA bezeichnet wird.
Lineare PCA lernt orthogonale Transformationen, die die Achsen so ausrichten, dass die Varianz maximiert wird, leidet aber unter einer Rotationsunbestimmtheit im Unterraum. Nichtlineare PCA kann diese Rotationsunbestimmtheit auf eine triviale Permutationsunbestimmtheit reduzieren, indem sie statistische Unabhängigkeit maximiert, kann aber nicht direkt auf die Daten angewendet werden, ohne diese vorher zu whitenen.
Das σ-PCA-Modell überwindet diese Einschränkungen, indem es eine Modifikation einführt, die es der nichtlinearen PCA ermöglicht, nicht nur die zweite, sondern auch die erste Rotation zu lernen - durch Maximierung von sowohl Varianz als auch statistischer Unabhängigkeit. Dadurch kann die nichtlineare PCA nun eine semi-orthogonale Transformation lernen, die die Dimensionalität reduziert und nach Varianzen ordnet, ohne die Rotationsunbestimmtheit zu leiden.
Das Modell kann sowohl lineare als auch nichtlineare PCA sowie lineare unabhängige Komponentenanalyse (ICA) als Spezialfälle ableiten. Die Beziehungen zwischen diesen Methoden werden detailliert erläutert.
To Another Language
from source content
arxiv.org
Önemli Bilgiler Şuradan Elde Edildi
by Fahdi Kanava... : arxiv.org 04-10-2024
https://arxiv.org/pdf/2311.13580.pdfDaha Derin Sorular