Core Concepts
k-centerクラスタリングの最適値を、次元を大幅に削減しつつ、定数倍の精度で保存することができる。この手法は、アウトライアを含む変種のk-centerクラスタリングにも適用可能である。
Abstract
本論文では、k-centerクラスタリングの最適値を、次元を大幅に削減しつつ、定数倍の精度で保存する手法を提案している。
まず、最遠点問題(FPQ)に対する適度な次元削減手法を示す。これは、k-centerクラスタリングの2近似アルゴリズムの基礎となる。
次に、一般的な枠組みを提案する。入力集合Pに対して、サイズがO(k)の小さな部分集合Sを見つけ、これを「証人」として利用する。Sの最適値がPの最適値の定数倍以上であることを示し、さらにランダム線形写像Gによってこの関係が保たれることを証明する。
この手法は、アウトライアを含むk-centerクラスタリングや、割当制約付きk-centerクラスタリングにも適用できる。前者では、Sの構成方法を工夫し、後者では、割当制約に関する議論を追加する。
最後に、この次元削減手法を用いて、動的幾何ストリームにおけるk-centerクラスタリングのアルゴリズムを提案する。従来のアルゴリズムと比べ、大幅に少ないメモリ使用量で、定数倍の近似解が得られる。
Stats
入力集合Pのサイズはn
目標次元はt = O(log k + d/α^2)
証人集合Sのサイズはk+1
最適値の近似精度はO(α)
Quotes
"Perhaps surprisingly, the target dimension can sometimes be reduced below that O(log n) bound, particularly when one only wants to preserve the optimal value of a specific objective function rather than all pairwise distances."
"We propose to focus on another regime, of moderate dimension reduction, where a problem's value is preserved within factor α > 1 using target dimension log n/poly(α)."