Core Concepts
新しいHierarchical Mixtures of Experts(HME)アプローチを提案し、大規模データセットでの優れたパフォーマンスを実現します。
Abstract
この論文では、Gaussian Process-Gated Hierarchical Mixtures of Experts(GPHMEs)が提案されています。このモデルは、内部ノードとエキスパートが両方ともGPsで表現されています。ランダムフィーチャーを使用してGPsを拡張する方法を選択しました。GPHMEsは他のGPベースのHMEや決定木に比べて複雑さが低く、DGPsや深層BNNの解釈を提供します。HMEにはサイズを事前に選択する制限がありますが、実際には大きな木の高さは必要ありません。様々なデータセットでの結果は、小さな木でも大規模データセットで優れたパフォーマンスを示すことを明確に示しています。
Stats
GPHMEs outperform BHME, GP-BART, and TGP in terms of MSE for regression tasks.
The training times for GPHME are significantly lower compared to BHME, GP-BART, and TGP.
GPHME shows reduced complexity and better performance on large-scale datasets.