本論文では、高速分離型スリムテンソル学習(DSTL)と呼ばれる新しいマルチビュークラスタリング(MVC)手法が提案されています。従来のテンソルベースの手法は、複数のビューからの類似度グラフを積み重ねてテンソルを構築することで、ビュー間の高次相関を捉えようとしてきました。しかし、このアプローチは、大規模なデータセットでは計算コストが高く、実用的ではありません。
DSTLは、行列分解を用いて、各ビューの潜在的な低次元表現を直接学習することで、この問題を解決します。さらに、ロバスト主成分分析(RPCA)に触発され、DSTLは各ビューの潜在的な低次元表現を、意味的に関連しない部分と意味的に関連する部分に分解します。これにより、意味的に関連しない情報が悪影響を及ぼすのを軽減することができます。
その後、意味的に関連しないスリムテンソルと意味的に関連するスリムテンソルの2つのスリムテンソルが構築されます。意味的に関連しないスリムテンソルは、ℓ1ノルム正則化を用いてスパースであると仮定され、意味的に関連するスリムテンソルは、テンソル核ノルム正則化を用いて低ランクであると仮定されます。さらに、ビュー間の意味的に関連する表現を整列させるために、コンセンサスアラインメント指標行列が組み込まれています。
DSTLは、従来のテンソルベースのMVC手法と比較して、いくつかの利点があります。
DSTLは、9つの公開データセットを用いて評価され、最先端のMVC手法と比較して、優れたクラスタリング性能を示しました。
DSTLは、高速で効率的、かつ効果的な新しいMVC手法です。大規模なデータセットや、各ビューに意味的に関連しない情報が多く含まれているデータセットに特に適しています。
A otro idioma
del contenido fuente
arxiv.org
Ideas clave extraídas de
by Deng Xu, Cha... a las arxiv.org 11-13-2024
https://arxiv.org/pdf/2411.07685.pdfConsultas más profundas